
Robert
07.06.2018
13:28:05
помогите починить кодировку:
# cat /dev/urandom | head -n 1
��t��dUEcm9��Έ�$�)���(��g �:M9"܄��
� 3G��Q��9�.«����t$ �S�_�X^w��a�%�R�tf��3P� 8�ʫ
вот так вроде ок:
# luit -encoding utf8 head -n 1 /dev/urandom
n45h!u"ꎾ
y.G%8f+o+s E&BQ`,Z h? g& <4_[O nY]D5 ljŦm}hJVW D62yԼ[KV M s u އR(G! ; kÕz"Ε7X!*NV
28? }Wˀ1`>^R\ ?#k>%8Jk jD_j i !z~@"K p`j^ڈo

Google

alexander
07.06.2018
13:52:36
cat /dev/urandom | strings |head -n 1

Evgenyj
07.06.2018
14:42:53
Всем привет. Вопрос здесь уже звучал, задам ещё раз: посоветуйте тулу для удобного менеджемента микросервисного приложения. Имеется ~50 микросервисов, все в докере, пакуются helm'ом и поставляются в кубер. Сейчас это выглядит примерно так: разраб в экселевском файлике меняет версию изменившихся микросервисов и выкатывает новую версию платформы. Опсы ручками соответсвенно обновляют зависимости в хелм чарте. и из консоли обновляют соответсвующий релиз. Нужна какая-то платформа где можно было бы и за выпуском новых версий следить, и навесить каких-то кастомных скриптов, например для деплоя разным заказчикам. Из того что находил - всё заточено под монолитные приложения. Любые предложения приветствуются

VsegdaZhivoi
07.06.2018
14:47:24


Dmitry
07.06.2018
14:48:04
>~50 микросервисов
>разраб в экселевском файлике меняет версию изменившихся микросервисов и выкатывает новую версию платформы. Опсы ручками соответсвенно обновляют зависимости в хелм чарте. и из консоли обновляют соответсвующий релиз
Наши руки не для скуки

AlexAnder
07.06.2018
14:48:46

Evgenyj
07.06.2018
14:49:20

Stanislav
07.06.2018
15:03:44
Cybernetes)

VsegdaZhivoi
07.06.2018
15:07:28

Эдуард
07.06.2018
15:09:03
Выкинуть эникеев и взять одного админа.

kiltum
07.06.2018
15:13:10
Ну что вы так сразу. Люди не дочитали про теги в рассказке про докер, вот и все ...

Evgenyj
07.06.2018
15:17:31
Не понимаю сарказма. Процесс сборки и деплоя автоматизировали через гитлаб CI, по коммиту все собирается, пакуется и пушится. Вопрос более о удобном менеджменте всей платформы в итоге. Есть что посоветовать - советуйте, а не флудите

kiltum
07.06.2018
15:20:54
Эксель тут зачем? :)

Google

kiltum
07.06.2018
15:21:05
И куча ручной работы :)
Хинт: в докер репе на любой билд можно ставить теги. Версию, latest, prod, hz и так далее. И этих тэгов может быть больше одного.
И заставить гитлаб пушить в прод с тегом prod легко и просто. Не надо ручных правок чартов и прочего. Поставил тег... пнул ci/cd и все


Evgenyj
07.06.2018
15:52:44
У нас всё немного сложнее
Есть ~50 разных реп на гитлабе, python+nodejs. Каждая из них - полноценный сервис со своим версионированием, пайплайнами, докер репо и т.д. В этой репе как раз таки всё это есть - девелопер тегирует код, пайплайн собирает и пушит образ с тегом + пушит хелм чарт новой версии. Потом под команду релиз менеджера из этих сервисов собирается новая версия всей платформы - там могут обновиться не все мкросервисы, могут обновиться не на самую последнюю версию и прочая. В отдельном хелм чарте мы соответственно обновляем зависимости на чарты этих сервисов и получаем готовый к поставке заказчику в кубер чарт. Вот этот кусок процесса и хочется как-то украсить - чтобы и версии и их компоненты было видно, и автоматизацию туда прикрутить можно было

kiltum
07.06.2018
15:55:26
(Все равно не понимает, зачем тут эксель) ну да ладно, вам видней


VsegdaZhivoi
07.06.2018
16:15:19
У нас всё немного сложнее
Есть ~50 разных реп на гитлабе, python+nodejs. Каждая из них - полноценный сервис со своим версионированием, пайплайнами, докер репо и т.д. В этой репе как раз таки всё это есть - девелопер тегирует код, пайплайн собирает и пушит образ с тегом + пушит хелм чарт новой версии. Потом под команду релиз менеджера из этих сервисов собирается новая версия всей платформы - там могут обновиться не все мкросервисы, могут обновиться не на самую последнюю версию и прочая. В отдельном хелм чарте мы соответственно обновляем зависимости на чарты этих сервисов и получаем готовый к поставке заказчику в кубер чарт. Вот этот кусок процесса и хочется как-то украсить - чтобы и версии и их компоненты было видно, и автоматизацию туда прикрутить можно было
Вот теперь, когда ты нормально объяснил, стало понятно, что не всё у вас так плохо, как казалось изначально)))
А что у вас для мониторинга используется?
Я бы на вашем месте запилил скрипт для каждого сервиса, который после каждого старта отправляет свою версию и, может, ещё какую-то служебную информацию на графану, например, а она табличку выводит
Или кастомный веб-серверочек простой, который хранит и отображает эту информацию. А этому серверу можно запилить апи, который может использовать хоть тот же дженкинс, чтобы понимать, что ему обновлять
Если я правильно понял проблему


Yuryi
07.06.2018
17:07:33

Dmitry
07.06.2018
17:27:14
Кто работал с Ceph ?
Делаю через rbd на серваках мапинг все проходит нормально но шара получается не общая

Старый
07.06.2018
17:31:39

Andrey
07.06.2018
17:33:35

Dmitry
07.06.2018
17:34:30
Спасибо

Boris
07.06.2018
17:38:33
Привет, кто пользуется grafana + prometheus , есть вопросик по графане, может кто подскажет?

Deep Sea
07.06.2018
17:38:55

Boris
07.06.2018
17:39:58
в графане не получается выборку сделать за 2 дня в одном из дашбордов?
получаю
query timed out in expression evaluation
куда копать?
из самого прометея тот же запрос отдается нормально

Google

Boris
07.06.2018
17:41:32
может кто сталкивался? какой параметр отвечает за данные таймауты.

Psy
07.06.2018
17:44:42
Просто с самим запросом что-то не так.

Boris
07.06.2018
17:45:26
просто долго и какойто таймаут его рвет
графаны, или может параметр прометея для графаны

Evgenyj
07.06.2018
18:37:40

Старый
07.06.2018
18:40:07
?

Evgenyj
07.06.2018
18:41:03
Это по поводу предыдущего вопроса
в промитиусе всё прекрасно)

MaXG
07.06.2018
20:18:44
Где спросить про покупку(аренду) сереров и у кого лучше хостить dns зону (и у кого купить)?

Старый
07.06.2018
20:20:04

Pauline
07.06.2018
22:53:26
спам?

Anton
08.06.2018
03:58:11
Кто-нибудь использует nexus repository + S3 в качестве docker-registry?
Можете поделиться своей конфигурацией? Используете s3-blobstore с патчами или просто мастер? Какая верия nexus, запускаете в докер или нет? Дистрибутив, версия, ядро?
Настроил nexus 3.12.0 из докер-имиджа с s3, push/pull отлично работал несколько дней. Сейчас просто виснет на "Preparing"
В логе c debug level ничего подозрительно не увидел, при этом push в локальной фс работает прекрасно, но нужен s3.
Текущий размер S3 составляет 53,7 ГБ
Попробовал подружить с s3fs - результат неудовлетворительный, нагрузка и постоянная перезакачка layers.

Andrey
08.06.2018
04:04:23
сорри за поднятие вчерашней темы :)

Alexey
08.06.2018
06:39:50
Привет.
подскажите пожалуйста как лучше сделать.
есть локальный git репозиторий
программеры пушат в него изменения
как можно сделать на этот локальный репозиторий обертку чтобы собирался docker и перезапускался.
gitlab для этого проекта не вариант ?

Constantin
08.06.2018
06:41:38
Git hooks

Vladimir
08.06.2018
06:42:39

Constantin
08.06.2018
06:43:02

Google

Alexey
08.06.2018
06:44:10
Спасибо

Alexander
08.06.2018
07:21:16
Ребят, а по какому порту gitlab-ci оьращается к раннеру? (Shell)

dk
08.06.2018
07:42:22
man netstat?

Deep Sea
08.06.2018
07:48:09
Вроде только раннер связывается с гитлабом, а не наоборот

Алексей
08.06.2018
07:50:02
народ всем привет. Подскажиет пожалуйста мне надо накатывать конфиг openvpn клиентам, скажите где правильнее генерировать ключи и сертификаты?
в самом ansible и потом копирывать на клиента ? или делать это на сервере и переносить потом на клиента?

Oleg
08.06.2018
08:01:50
тут вопрос в том, будут ли у тебя добавлятся клиенты и как часто
если не будут или не часто, то я б нагенерил, а потом впихнул уже готовое в енсибл
если часто, то нужно писать хитрожопую логику, которая будет ходить на сервер, там генерить, потом забирать оттуда и пихать на клиент

Алексей
08.06.2018
08:07:08

Oleg
08.06.2018
08:08:40
если самому делать, то там вся роль получится)
посмотри еще на готовое, эта роль умеет генерить клиентов
https://github.com/Stouts/Stouts.openvpn

Alexander
08.06.2018
08:14:27

Deep Sea
08.06.2018
08:15:03

Alexander
08.06.2018
08:15:46

Psy
08.06.2018
08:24:30
Друзья, не могу понять что упустил. k8s+ceph. добавяю тестовый pod. В итоге висит эвент с сообщением pod has unbound PersistentVolumeClaims (repeated 2 times)
kubectl get pods возвращает STATUS Pending. get pv не возвращает ничего. Куда посмотреть?

[Anonymous]
08.06.2018
08:37:00
Хай!

Sergey
08.06.2018
08:37:34
PV\PVC правильно настроены на цеф?

Psy
08.06.2018
08:42:04
попробую перепроверить, я с ним только второй день знаком

Google

Sergey
08.06.2018
08:48:22
kubectl describe pvc yourpvc
kubectl describe pv yourpv

Sergey
08.06.2018
08:49:04
Слова build тут нигде нет, всё совершенно верно подчеркнуто.

Sergey
08.06.2018
08:49:09
я чет подобное уже делал, только с NFS но ужене помню как боролся

Psy
08.06.2018
08:53:55
kubectl describe pvc yourpvc
kubectl describe pv yourpv
так вернул то что я уже видел.
StorageClass: ceph-rbd
Status: Pending
.....
Warning ProvisioningFailed 2s (x3833 over 15h) persistentvolume-controller (combined from similar events): Failed to provision volume with StorageClass "ceph-rbd": failed to create rbd image: exit status 1, command output: 2018-06-08 08:50:43.575314 7f68f997e7c0 -1 did not load config file, using default settings.
ладно, попробую с нуля всё переделать. наверняка просто мелочь какую упустил

Andrey
08.06.2018
09:06:36