@kubernetes_ru

Страница 540 из 958
Andrey
30.04.2018
13:18:12
что лучше (проще) взять для персистентности на bare metal, gluster или ceph? особенно, если в первый раз.
Человек хочет лишиться persistent-девсвенности. И просит помочь выбрать между двумя стульями?

Anton
30.04.2018
13:18:44
можно и между тремя

Gleb
30.04.2018
13:19:21
Ну из опенсорса у тебя выбор между двумя

Читай доки по цефу чё

Google
Anton
30.04.2018
13:19:57
почему именно по цефу? выше гластер советуют

у меня кластер в ibm/softlayer, кстати, может быть у них что-то готовое есть?

Andrey
30.04.2018
13:22:27
Кстати, @Anc1ent мне тут вместо опенвз посоветовали овирт?

Gleb
30.04.2018
13:22:52
почему именно по цефу? выше гластер советуют
Потому что у гластера даже с комерческой поддержкой проблем миллион и их не чинят. Редхат явно болт положил. А если ты еще и из двух нод решишь сделать то вообше говна наешься

Andrey
30.04.2018
13:23:44
Ну он более менее годный
Он уже вышел из стадии "Для бэкапов у нас есть апи. Для миграции у нас есть апи. Вообще для всего нужного вам функционала у нас есть апи!"?))))

Andrey
30.04.2018
13:24:11
??

Gleb
30.04.2018
13:24:12
И софт для бекапирования

Andrey
30.04.2018
13:24:20
Россия и Купить в одном предложении

Я лучше прпоксмокс буду двигать вместо виртуоззо)

Andrey
30.04.2018
13:25:14
Так мне же страдать с ним)

Google
Gleb
30.04.2018
13:25:42
Лучше с овиртом пострадай

Andrey
30.04.2018
13:28:58
Боли и страданий больше?)))

Kanat
30.04.2018
13:34:12
То есть гластер не для прода хотите сказать?

Banschikov
30.04.2018
13:37:33
То есть гластер не для прода хотите сказать?
Вообще если гластер юзать через fuse-driver, то скорость дисковой подсистемы причиняет как раз страдание и боль. Как то тестил уже, но не в кубере.

Gleb
30.04.2018
13:41:54
То есть гластер не для прода хотите сказать?
Пойди в гугл и посмотри как у людей болит на продакшен нагрузках

В одном профильном чате некий собирающийся в SDS юзер попросил рассказать грустных историй про RedHat'овский GlusterFS. Поскольку относительно недавно мы такое втащили на прод (v3.12), накопилось следующее: * Не может в 4KN диски, т.к. там индусокод под капотом. Переписка с саппортом про 4kn показала, что им пофиг на платного кастомера и баг чинить никто не будет. С этого момента компания отказалась от платной подписки на RH. Из-за 4kn прикола встряли на замену 39 дисков. * На RHEL7 под systemd демоны его падают каждые несколько часов, в логах sigterm (15), как будто systemd сам их мочит. В какой-то момент окно авторестарта демона совпало на чуть больше, чем половине машин, и кворум кластера был утрачен. Весь продакшен умер, потом вручную в RHV перезапускали все VM. * OOM у glusterfsd - родовая болезнь. Оно у него всегда было есть и будет. По этой причине на гластер ставятся жирные по памяти машины без дополнительной нагрузки и задач. Делать HCI на нем - это самый короткий путь в OOM hell. * Из не смертельного, но раздражающего: - Туда нельзя положить файл размером больше брика, если брики одинакового размера - Добровольно-принудительное использование XFS - Проблемы с некоторыми сетевухами Dell из-за которых после нескольких дней uptime скорость GlusterFS деградирует до 10 раз (к счастью, излечимо) Нужно ли такое в продакшене? Нет.

Вот тебе ближайший пример

А это еще и платная версия, а не то поделие что опенсорснуто

Alex Milushev
30.04.2018
13:52:32
привет, а есть возможность в рамках пода директорию одного контейнера пробросить во второй контейнер?

Vadim
30.04.2018
13:52:37
>в логах sigterm (15), как будто systemd сам их мочит. лол

Banschikov
30.04.2018
13:53:28
В одном профильном чате некий собирающийся в SDS юзер попросил рассказать грустных историй про RedHat'овский GlusterFS. Поскольку относительно недавно мы такое втащили на прод (v3.12), накопилось следующее: * Не может в 4KN диски, т.к. там индусокод под капотом. Переписка с саппортом про 4kn показала, что им пофиг на платного кастомера и баг чинить никто не будет. С этого момента компания отказалась от платной подписки на RH. Из-за 4kn прикола встряли на замену 39 дисков. * На RHEL7 под systemd демоны его падают каждые несколько часов, в логах sigterm (15), как будто systemd сам их мочит. В какой-то момент окно авторестарта демона совпало на чуть больше, чем половине машин, и кворум кластера был утрачен. Весь продакшен умер, потом вручную в RHV перезапускали все VM. * OOM у glusterfsd - родовая болезнь. Оно у него всегда было есть и будет. По этой причине на гластер ставятся жирные по памяти машины без дополнительной нагрузки и задач. Делать HCI на нем - это самый короткий путь в OOM hell. * Из не смертельного, но раздражающего: - Туда нельзя положить файл размером больше брика, если брики одинакового размера - Добровольно-принудительное использование XFS - Проблемы с некоторыми сетевухами Dell из-за которых после нескольких дней uptime скорость GlusterFS деградирует до 10 раз (к счастью, излечимо) Нужно ли такое в продакшене? Нет.
Спасибо. Тоже было интересно прочитать. Лишний раз удостоверился в своих размышлениях

Kanat
30.04.2018
14:10:08
Остаётся ceph?

Из открытого?

Andor
30.04.2018
14:13:17
https://github.com/reverbrain/elliptics это считается открытым?

а, или в контексте кубера?

bebebe
30.04.2018
14:26:01
Heketi персик же
такой если честно персик, вы его ставили?

4 месяца назад это было боль

Ivan
30.04.2018
14:26:31
нормальный мужской персик

bebebe
30.04.2018
14:26:51
@korjavin \o/

Ivan
30.04.2018
14:27:01
здраствуйте

Google
bebebe
30.04.2018
14:27:33
я тут решил дома собрать k8s из говна и палок поставил maas и запровижинил 3 ноды на baremetal и kubespray развернул k8s

Ivan
30.04.2018
14:27:47
а я умираю с gitlab интеграцией

bebebe
30.04.2018
14:27:54


Ivan
30.04.2018
14:27:54
я очевидно её не понимаю от слова совсем

bebebe
30.04.2018
14:27:58
немного картинок

Алексей
30.04.2018
14:28:19
такой если честно персик, вы его ставили?
Буквально вчера он встал за 10 секунд одной командой Ну естественно с правильно описанной топологией и модулями ядра

bebebe
30.04.2018
14:28:48
Буквально вчера он встал за 10 секунд одной командой Ну естественно с правильно описанной топологией и модулями ядра
у меня были большие проблемы найти са дистрибутив heketi который бы нормально работал

я вот думаю сейчас ceph накатить

Алексей
30.04.2018
14:30:14
я вот думаю сейчас ceph накатить
А у меня с цефом ничего не вышло( Бился неделю Его реализация для k8s сырая, а отдельный кластер требует слишком много ресурсов и возни.

Алексей
30.04.2018
14:32:05
а у вас от heketi осталась документация или автоматизация?
Очень хорошая статья есть на devoos ru Ищется в Гугл по heketi kubernetes

я бы посмотрел
Не могу с телефона скинуть (

bebebe
30.04.2018
14:34:49
Не могу с телефона скинуть (
спасибо, я нагуглю нужное

Anton
30.04.2018
14:58:11
я видел упоминание цефа в кубспрейных файлах, видимо, можно сразу из коробки и кластер и цеф раскатать

Dmytro
30.04.2018
16:04:42
Народ подскажите плиз. в type: LoadBalancer ports: - port: 80 targetPort: 8080 protocol: TCP как targetPort взять из config что то вроде valueFrom: configMapKeyRef: key: "key" name: "my-config" возможно? какой там синтаксис
Так нельзя но можно ссылаться на порт по имени, те targetPort: http в какой это там будет номер порта уже в описании деплоймента пишется

Alex Milushev
30.04.2018
16:10:40
Сделать вольюм emptyDir или hostPath и замаунтить в оба контейнера
Мне нужно файлы из одного контейнера в другом :(

Google
Ivan
30.04.2018
16:11:48
Так нельзя но можно ссылаться на порт по имени, те targetPort: http в какой это там будет номер порта уже в описании деплоймента пишется
Нет примера под рукой? А туда я смотрю через config? моя задача порты из конфига передавать

Dmytro
30.04.2018
16:15:00
Мне нужно файлы из одного контейнера в другом :(
Боюсь что так нельзя, тут скорее всего придётся сделать инит контейнер (можно с тем же image что и основной контейнер), в нем сделать cp -r в вольюм emptyDir и вольюм из него в оба контейнера подключить

Нет примера под рукой? А туда я смотрю через config? моя задача порты из конфига передавать
Через конфиг не выйдет боюсь, нужно юзать helm или аналогичное что-то для генерации деплоймента из тех мплейта. Пример порта с именем: https://stackoverflow.com/questions/45466423/how-could-targetport-be-set-with-string-value-in-kubernetes

zigmund
30.04.2018
16:32:06
Не слушайте никого, не пихайте персист в контейнеры.

Цеф - это хорошо, но блин...

Andrey
30.04.2018
16:41:19
Так, а чем openebs плох?

Он то как раз с полпинка прикручивается

Vasilyev
30.04.2018
17:26:32
Так, а чем openebs плох?
А можете пару негативных моментов привести ?

С каими трудностями столкнулись в процессе эксплуатации, а то слишком уж все красиво

Andrey
30.04.2018
17:27:29
пока нет, гонял только на деве

Но, кто-то тут в чате не так давно его упомянул и он взлетел сразу

Через месяц смогу сказать точно) Пока в планах после праздников запихнуть его и нужный мне софт в кластер и пошатать как следует

Vasilyev
30.04.2018
17:30:17
та и у меня на дэв окружении взлетел)) Спасибо вам за то что направили в нужном направлении)

Andrey
30.04.2018
18:22:09
А кто-нибудь это юзал? https://github.com/kubermatic/machine-controller

bebebe
30.04.2018
19:07:27
раздеплоил 1.9.5 на baremetal через kubespray добавил ceph как storage class добавил google/metalb load balancer L2 все заработало из коробки

baremetal из говна и палок домашний edition

Kanat
30.04.2018
19:12:21
bebebe
30.04.2018
19:13:20
я пробовал его поставить 4 месяца назад. он у меня взлетел с болью, но взлетел ceph намного приятнее, буквально один helm чарт с парой измененных параметров https://rook.io/

Google
Kanat
30.04.2018
19:16:19
Что можете про ранчер сказать?

bebebe
30.04.2018
19:16:59
Что можете про ранчер сказать?
ни разу его не пользовал, но я так понял что девочки от него кайфуют

Kanat
30.04.2018
19:17:14
Девочки? :)

bebebe
30.04.2018
19:18:18
Девочки? :)
говорят что там все просто и понятно

Andor
30.04.2018
19:19:17
Про сеф тоже говорят, что просто и понятно, а на деле не очень

bebebe
30.04.2018
19:19:41
ну я с ним знаком на уровне gdb немного

cent
30.04.2018
19:24:25
Что можете про ранчер сказать?
Ну, удобно подергать rancher-compose, который такой же как и docker-compose. И не важно какой оркестратор под капотом cattle или кубер ( который ставится как плагин, или уже вроде в коробке ). И как правило, в конечном итоге его выпиливают и отсавляют просто кубер, когда вся инфраструктура опишется в чартах.

bebebe
30.04.2018
20:05:11
? а есть в гитхабе результат работы? :)
я пока не представляю какие артефакты можно заделиверить provision = https://maas.io/ поднял его при помощи https://galaxy.ansible.com/mrlesmithjr/maas/ деплой k8s + calico = https://github.com/kubernetes-incubator/kubespray storageclass ceph = ставил helm чарт от rook. https://rook.io/ google/metalb loadbalancer L2 = ставил хелм чартом https://metallb.universe.tf/installation/ + на openwrt настроил dhcp без подводных камней

Anton
30.04.2018
20:24:52
вот этот пост уже сам по себе артефакт, спасибо

тянет на статью

Страница 540 из 958