
Nikita
13.06.2018
11:27:06
Ставил же
Уже помнил по вашей наводке про свой аккаунт на GKE)) поднял виртуалку 7 редхата и всё настроил

Артамонов Игорь
13.06.2018
11:37:38
Привет всем!
Хочется настроить GlusterFS/NFS хранилище на bare-metal кластере кубернетес с 2-3 нодами. Довольно много информации, и честно говоря не очень понимаю, с чего начать.
Можете что-нибудь посоветовать на почитать в эту тему?

Sergey
13.06.2018
11:39:03
я бы не советовал глючстер

Артамонов Игорь
13.06.2018
11:39:43
Да, уже увидел, что оно не отказоустойчиво. Думал о том, чтобы Gluster по протоколу NFS юзать, но, видимо, тоже не очень

Google

Артамонов Игорь
13.06.2018
11:39:51
Энивей, хочется какую-нибудь стартовую точку увидеть
с чего начать?)

Georgiy
13.06.2018
11:40:03
NFS тоже такое себе

Артамонов Игорь
13.06.2018
11:40:25
Иных вариантов нет, к сожалению

Эдуард
13.06.2018
11:44:53
Работает же?

Nikita
13.06.2018
11:46:22
Велкам
Спасибо большое за помощь!

Sergey
13.06.2018
11:46:29
"динамика"
:D

Dmitry
13.06.2018
11:48:02

Elia
13.06.2018
11:49:54
Господа, кому не сложно, поделитесь личным опытом, как деплоите микросевисное приложение в кубернейтс. Монорепа/разные репы, как сам деплой проходит (по одному/сразу все), с помощью чего, где собирается, откуда деплоится, деплоится по пушу, мёрджу, ручками и всё такое. Пытаюсь собрать немного статистики

Alexander
13.06.2018
11:51:44
по тегу, CI - drone. по конкретному сервису (с сохранением старой версии, пока все сервисы не переедут на новую версию апи)

Google

Dmitry
13.06.2018
11:52:08
1) Разные репы
2) По одному
3) envsubst | kubectl apply -f
4) Тимсити на каждый коммит собирает образ, по сборке образа в ветке мастер заливает на stage окружение, на прод кнопкой из тимсити.

Эдуард
13.06.2018
11:54:25
Jenkins, develop-master, deploy on push

Дмитрий
13.06.2018
12:01:13
Он правда чувствителен к скорости сети, геораспределённый кластер на неём лучше не делать

Артамонов Игорь
13.06.2018
12:02:28
Я вот на такую статью наткнулся
коменты интересны :)

Дмитрий
13.06.2018
12:02:47
12 год, серьёзно?

Артамонов Игорь
13.06.2018
12:03:05
да хрен его знает =)
Проверяли ли подобный кейс?)

Дмитрий
13.06.2018
12:04:10
года 4 назад пробовал на нём держать виртуалки kvm и тогда он себя плохо показывал. Сейчас думаю ситуация иная всётаки его редхат выкупил.
У меня в кубере крутится года 2 нарверное без проблем
и монга там и постгресс и статика

Артамонов Игорь
13.06.2018
12:04:52
хы
А по каким мануалам настраивали?
У меня +- тоже самое планируется. Я бы покрутил

Дмитрий
13.06.2018
12:05:39
ничего сверх того что описано в родных глустеровских мануалах не делал

Артамонов Игорь
13.06.2018
12:05:58
хм, ок
Кстати, а какую нагрузку на проде оно держит? Какая нагруженность у вас?
Если не секрет, конечно

Дмитрий
13.06.2018
12:08:48
Ну там обычные диски, не ssd. Какая статистика нужна?

Google

Артамонов Игорь
13.06.2018
12:11:41
Интересно, какой объем данных гоняется по сетке в секунду/минуту, как минимум.
У нас просто хайлоад, и приходится дико извращаться из-за невозможности нормальную, физическую хранилку сделать
есть некие опасения что сетка ляжет тупо
NFS у нас крутится, но не справляется. По этому вот. пробуем Gluster

Дмитрий
13.06.2018
12:12:13
у меня сейчас там процесс миграции и если включить процесс profile он ничего не даст, потому что нагрузка снята.

Артамонов Игорь
13.06.2018
12:14:53
Сейчас пока, демонстрации ради, поставили "Replicated Glusterfs Volume" на двух нодах
Бета-версию продукта на него пересадим, посмотрим как пойдет

Дмитрий
13.06.2018
12:18:03

Артамонов Игорь
13.06.2018
12:18:46
Мне нужно то, выдержит нагрузку и будет достаточно отказоустойчивым х)
Пока что на нее только статика ляжет. В перспективе постгря/монга
Пока что смотрю в сторону родного протокола гластера, раз кубернетес с ним работает адекватно

Дмитрий
13.06.2018
12:24:04

Артамонов Игорь
13.06.2018
12:25:17
О!
Спасибо.

Дмитрий
13.06.2018
12:25:38
Это конечно не исилон, который на каждый запрос раундробином меняет айпишник nfs сервера, но HA позволяет строить и привязка к виртуальному ip

Артамонов Игорь
13.06.2018
12:26:02
Шик, буду копать. Спасибо за направление

Михаил
13.06.2018
12:58:26
Я бы подождал gluster 4.1

Stanislav
13.06.2018
12:59:01
Ктото глустер в проде катает? 0_о

Михаил
13.06.2018
13:00:38
говорят да

Stanislav
13.06.2018
13:00:45
0_о

Михаил
13.06.2018
13:00:47
говорят даже есть большие инсталяции

Stanislav
13.06.2018
13:00:50
Маньяки)

Google

Михаил
13.06.2018
13:00:53
правда с платной тех поддержкой

Admin
ERROR: S client not available

Дмитрий
13.06.2018
13:02:46
глустер хорош когда нужно быстро поднять кластер для теста или дева
Он очень простой в конфигурировании и управлении, тем и подкупает
и архитектура у него интересная
Раньше он был очень чувствителен к скорости сети. Сейчас не зна, но думаю что всё равно не стоит его собирать на гео разнесённых нодах.
У нас сейчас серваки в одной подсетки и проблем не возникает, даже при многократном падении ноды, с отключением питания и т.д. Данные не теряются
и да, версия у нас 3.10

Denis
13.06.2018
13:07:47
Добрый день. В добровольно-принудительном порядке, пытаюсь начать осваивать кубер.
Может кто-то подсказать по Racher и поднятием класстера на AWS EC2?

Дмитрий
13.06.2018
13:08:24

Stanislav
13.06.2018
13:08:33
?
Пихают пацана из чатика в чатик)

next
13.06.2018
13:08:55
))

Denis
13.06.2018
13:08:56
Да блиин

Дмитрий
13.06.2018
13:09:41
Сорян)

Elia
13.06.2018
13:10:09
Dmitry @volarenege спасибо!

Stanislav
13.06.2018
13:10:11
Да блиин
Я думаю тебе проще сразу сформировать вопрос)

Эдуард
13.06.2018
13:12:24

Дмитрий
13.06.2018
13:14:48
Да блиин
Но что-то там народу мало, наверное лучше тут спрашивать)

MVP
13.06.2018
13:16:12
скажите - по google cloud есть еще чатик или тут есть знающие люди?

Google

Denis
13.06.2018
13:16:39
Суть. Есть rancher поднятый в docker. При помощи него пытаюсь создать кластер на AWS EC2. Делаю шаблон. Создаю класстер из одно машины, туда ставится RancherOS. Тачка в AWS поднимается, создается Sec.group-а, но сам rancher далее класстер не видит и висит в начальном этапе рагется на API
Может у кого то есть какая интсрукция актуальная

Denis
13.06.2018
13:25:45
Ребтяки , а ктото может посоветовать бест практис для деплоя в куб юзая женкинс?

Andor
13.06.2018
13:27:11
а чо даёт ранчер вообще по сравнению с голым кубером?
в контексте aws + kops

Psy
13.06.2018
13:27:58

Fike
13.06.2018
13:29:56
Мне не очень понятно, что вы подразумеваете под бест практис. Есть обязательная часть, которая кончается kubectl/helm/etc и отправляет конфу в куб, всё остальное сильно зависит от ваших задач. О чем вы хотите услышать?


MVP
13.06.2018
13:38:06
завожу под из такого yaml: apiVersion: v1
kind: Pod
metadata:
name: envs
spec:
containers:
- name: gogo
image: golang:1.10.3-alpine3.7
ports:
- containerPort: 9999
env:
- name: SIMPLE_SERVICE_VERSION
value: "1.0" после старта все идет ок а потом почему то в перезапуск Normal SuccessfulMountVolume 3m kubelet, gke-cluster-1-default-pool-2e3a27e6-4wpv-1 MountVolume.SetUp succeeded for volume "default-token-ljhf6"
Normal Pulling 3m kubelet, gke-cluster-1-default-pool-2e3a27e6-4wpv-1 pulling image "golang:1.10.3-alpine3.7"
Normal Pulled 2m kubelet, gke-cluster-1-default-pool-2e3a27e6-4wpv-1 Successfully pulled image "golang:1.10.3-alpine3.7"
Normal Created 1m (x4 over 2m) kubelet, gke-cluster-1-default-pool-2e3a27e6-4wpv-1 Created container
Normal Started 1m (x4 over 2m) kubelet, gke-cluster-1-default-pool-2e3a27e6-4wpv-1 Started container
Normal Pulled 1m (x3 over 2m) kubelet, gke-cluster-1-default-pool-2e3a27e6-4wpv-1 Container image "golang:1.10.3-alpine3.7" already present on
machine
Warning BackOff 1m (x5 over 2m) kubelet, gke-cluster-1-default-pool-2e3a27e6-4wpv-1 Back-off restarting failed container
Warning FailedSync 1m (x6 over 2m) kubelet, gke-cluster-1-default-pool-2e3a27e6-4wpv-1 Error syncing pod
как понять куда копать?


Crypt
13.06.2018
13:40:57

MVP
13.06.2018
13:43:16