@devops_ru

Страница 3951 из 4568
Robert
07.06.2018
13:28:05
помогите починить кодировку:

# cat /dev/urandom | head -n 1 ��t��dUEcm9��Έ�$�)���(��g �:M9"܄�� � 3G��Q��9�.«����t$ �S�_�X^w��a�%�R�tf��3P� 8�ʫ

вот так вроде ок:

# luit -encoding utf8 head -n 1 /dev/urandom n45h!u"ꎾ y.G%8f+o+s E&BQ`,Z h? g& <4_[O nY]D5 ljŦm}hJVW D62yԼ[KV M s u އR(G! ; kÕz"Ε7X!*NV 28? }Wˀ1`>^R\ ?#k>%8Jk jD_j i !z~@"K p`j^ڈo

Google
alexander
07.06.2018
13:52:36
cat /dev/urandom | strings |head -n 1

Evgenyj
07.06.2018
14:42:53
Всем привет. Вопрос здесь уже звучал, задам ещё раз: посоветуйте тулу для удобного менеджемента микросервисного приложения. Имеется ~50 микросервисов, все в докере, пакуются helm'ом и поставляются в кубер. Сейчас это выглядит примерно так: разраб в экселевском файлике меняет версию изменившихся микросервисов и выкатывает новую версию платформы. Опсы ручками соответсвенно обновляют зависимости в хелм чарте. и из консоли обновляют соответсвующий релиз. Нужна какая-то платформа где можно было бы и за выпуском новых версий следить, и навесить каких-то кастомных скриптов, например для деплоя разным заказчикам. Из того что находил - всё заточено под монолитные приложения. Любые предложения приветствуются

Dmitry
07.06.2018
14:48:04
>~50 микросервисов >разраб в экселевском файлике меняет версию изменившихся микросервисов и выкатывает новую версию платформы. Опсы ручками соответсвенно обновляют зависимости в хелм чарте. и из консоли обновляют соответсвующий релиз Наши руки не для скуки

AlexAnder
07.06.2018
14:48:46
в интерфейсе gitlab что-то такое было
настроил тревис: - git remote add gitlab https://gitlab-ci-token:$GITLAB_TOKEN@gitlab.com/user/repo.git - git push gitlab src

Stanislav
07.06.2018
15:03:44
Cybernetes)

VsegdaZhivoi
07.06.2018
15:07:28
Используем и то и то, можно подробнее?
Что-то мне кажется, вам стоит уволить пару сисопсов и нанять одного девопса)

Эдуард
07.06.2018
15:09:03
Выкинуть эникеев и взять одного админа.

kiltum
07.06.2018
15:13:10
Ну что вы так сразу. Люди не дочитали про теги в рассказке про докер, вот и все ...

Evgenyj
07.06.2018
15:17:31
Не понимаю сарказма. Процесс сборки и деплоя автоматизировали через гитлаб CI, по коммиту все собирается, пакуется и пушится. Вопрос более о удобном менеджменте всей платформы в итоге. Есть что посоветовать - советуйте, а не флудите

kiltum
07.06.2018
15:20:54
Эксель тут зачем? :)

Google
kiltum
07.06.2018
15:21:05
И куча ручной работы :)

Хинт: в докер репе на любой билд можно ставить теги. Версию, latest, prod, hz и так далее. И этих тэгов может быть больше одного.

И заставить гитлаб пушить в прод с тегом prod легко и просто. Не надо ручных правок чартов и прочего. Поставил тег... пнул ci/cd и все

Evgenyj
07.06.2018
15:52:44
У нас всё немного сложнее Есть ~50 разных реп на гитлабе, python+nodejs. Каждая из них - полноценный сервис со своим версионированием, пайплайнами, докер репо и т.д. В этой репе как раз таки всё это есть - девелопер тегирует код, пайплайн собирает и пушит образ с тегом + пушит хелм чарт новой версии. Потом под команду релиз менеджера из этих сервисов собирается новая версия всей платформы - там могут обновиться не все мкросервисы, могут обновиться не на самую последнюю версию и прочая. В отдельном хелм чарте мы соответственно обновляем зависимости на чарты этих сервисов и получаем готовый к поставке заказчику в кубер чарт. Вот этот кусок процесса и хочется как-то украсить - чтобы и версии и их компоненты было видно, и автоматизацию туда прикрутить можно было

kiltum
07.06.2018
15:55:26
(Все равно не понимает, зачем тут эксель) ну да ладно, вам видней

VsegdaZhivoi
07.06.2018
16:15:19
У нас всё немного сложнее Есть ~50 разных реп на гитлабе, python+nodejs. Каждая из них - полноценный сервис со своим версионированием, пайплайнами, докер репо и т.д. В этой репе как раз таки всё это есть - девелопер тегирует код, пайплайн собирает и пушит образ с тегом + пушит хелм чарт новой версии. Потом под команду релиз менеджера из этих сервисов собирается новая версия всей платформы - там могут обновиться не все мкросервисы, могут обновиться не на самую последнюю версию и прочая. В отдельном хелм чарте мы соответственно обновляем зависимости на чарты этих сервисов и получаем готовый к поставке заказчику в кубер чарт. Вот этот кусок процесса и хочется как-то украсить - чтобы и версии и их компоненты было видно, и автоматизацию туда прикрутить можно было
Вот теперь, когда ты нормально объяснил, стало понятно, что не всё у вас так плохо, как казалось изначально)))

А что у вас для мониторинга используется?

Я бы на вашем месте запилил скрипт для каждого сервиса, который после каждого старта отправляет свою версию и, может, ещё какую-то служебную информацию на графану, например, а она табличку выводит

Или кастомный веб-серверочек простой, который хранит и отображает эту информацию. А этому серверу можно запилить апи, который может использовать хоть тот же дженкинс, чтобы понимать, что ему обновлять

Если я правильно понял проблему

Dmitry
07.06.2018
17:27:14
Кто работал с Ceph ? Делаю через rbd на серваках мапинг все проходит нормально но шара получается не общая

Andrey
07.06.2018
17:33:35
Кто работал с Ceph ? Делаю через rbd на серваках мапинг все проходит нормально но шара получается не общая
Под общую шару cephfs. А rbd общий (rbd map) только как ридонли имеет смысл подключать

Dmitry
07.06.2018
17:34:30
Спасибо

Boris
07.06.2018
17:38:33
Привет, кто пользуется grafana + prometheus , есть вопросик по графане, может кто подскажет?

Boris
07.06.2018
17:39:58
в графане не получается выборку сделать за 2 дня в одном из дашбордов? получаю query timed out in expression evaluation

куда копать?

из самого прометея тот же запрос отдается нормально

Google
Boris
07.06.2018
17:41:32


может кто сталкивался? какой параметр отвечает за данные таймауты.

Psy
07.06.2018
17:44:42
Просто с самим запросом что-то не так.

Boris
07.06.2018
17:45:26
Просто с самим запросом что-то не так.
так а напрямую в промете то он отрабатывает без проблем

просто долго и какойто таймаут его рвет

графаны, или может параметр прометея для графаны

Evgenyj
07.06.2018
18:37:40
А что у вас для мониторинга используется?
Prometheus + Grafana Да, видимо приидется что-то своё писать. Думал что-то такое уже придумали, но видимо нет

Evgenyj
07.06.2018
18:41:03
Это по поводу предыдущего вопроса в промитиусе всё прекрасно)

MaXG
07.06.2018
20:18:44
Где спросить про покупку(аренду) сереров и у кого лучше хостить dns зону (и у кого купить)?

Pauline
07.06.2018
22:53:26
спам?

Anton
08.06.2018
03:58:11
Кто-нибудь использует nexus repository + S3 в качестве docker-registry? Можете поделиться своей конфигурацией? Используете s3-blobstore с патчами или просто мастер? Какая верия nexus, запускаете в докер или нет? Дистрибутив, версия, ядро? Настроил nexus 3.12.0 из докер-имиджа с s3, push/pull отлично работал несколько дней. Сейчас просто виснет на "Preparing" В логе c debug level ничего подозрительно не увидел, при этом push в локальной фс работает прекрасно, но нужен s3. Текущий размер S3 составляет 53,7 ГБ Попробовал подружить с s3fs - результат неудовлетворительный, нагрузка и постоянная перезакачка layers.

Andrey
08.06.2018
04:04:23
сорри за поднятие вчерашней темы :)

Alexey
08.06.2018
06:39:50
Привет. подскажите пожалуйста как лучше сделать. есть локальный git репозиторий программеры пушат в него изменения как можно сделать на этот локальный репозиторий обертку чтобы собирался docker и перезапускался. gitlab для этого проекта не вариант ?

Constantin
08.06.2018
06:41:38
Git hooks

Google
Alexey
08.06.2018
06:44:10
Спасибо

Alexander
08.06.2018
07:21:16
Ребят, а по какому порту gitlab-ci оьращается к раннеру? (Shell)

dk
08.06.2018
07:42:22
man netstat?

Deep Sea
08.06.2018
07:48:09
Вроде только раннер связывается с гитлабом, а не наоборот

Алексей
08.06.2018
07:50:02
народ всем привет. Подскажиет пожалуйста мне надо накатывать конфиг openvpn клиентам, скажите где правильнее генерировать ключи и сертификаты?

в самом ansible и потом копирывать на клиента ? или делать это на сервере и переносить потом на клиента?

Oleg
08.06.2018
08:01:50
тут вопрос в том, будут ли у тебя добавлятся клиенты и как часто

если не будут или не часто, то я б нагенерил, а потом впихнул уже готовое в енсибл

если часто, то нужно писать хитрожопую логику, которая будет ходить на сервер, там генерить, потом забирать оттуда и пихать на клиент

Oleg
08.06.2018
08:08:40
если самому делать, то там вся роль получится) посмотри еще на готовое, эта роль умеет генерить клиентов https://github.com/Stouts/Stouts.openvpn

Alexander
08.06.2018
08:14:27
Вроде только раннер связывается с гитлабом, а не наоборот
А как раннер узнает тогда что на гитлабе стартовал джоб??

Deep Sea
08.06.2018
08:15:03
А как раннер узнает тогда что на гитлабе стартовал джоб??
опрашивает по интервалу гитлаб, есть ли для него джобы

Alexander
08.06.2018
08:15:46
опрашивает по интервалу гитлаб, есть ли для него джобы
Отлично. Получается тогда на сервер где раннер никаких портов для него открывать не надо. Спасибо

Psy
08.06.2018
08:24:30
Друзья, не могу понять что упустил. k8s+ceph. добавяю тестовый pod. В итоге висит эвент с сообщением pod has unbound PersistentVolumeClaims (repeated 2 times) kubectl get pods возвращает STATUS Pending. get pv не возвращает ничего. Куда посмотреть?

[Anonymous]
08.06.2018
08:37:00
Хай!

Psy
08.06.2018
08:42:04
попробую перепроверить, я с ним только второй день знаком

а точно правильный storageclass используется?
kubectl get storageclass NAME PROVISIONER AGE ceph-rbd (default) kubernetes.io/rbd 15h

Google
Sergey
08.06.2018
08:48:22
kubectl describe pvc yourpvc kubectl describe pv yourpv

Sergey
08.06.2018
08:49:04
Слова build тут нигде нет, всё совершенно верно подчеркнуто.

Sergey
08.06.2018
08:49:09
я чет подобное уже делал, только с NFS но ужене помню как боролся

Psy
08.06.2018
08:53:55
kubectl describe pvc yourpvc kubectl describe pv yourpv
так вернул то что я уже видел. StorageClass: ceph-rbd Status: Pending ..... Warning ProvisioningFailed 2s (x3833 over 15h) persistentvolume-controller (combined from similar events): Failed to provision volume with StorageClass "ceph-rbd": failed to create rbd image: exit status 1, command output: 2018-06-08 08:50:43.575314 7f68f997e7c0 -1 did not load config file, using default settings.

ладно, попробую с нуля всё переделать. наверняка просто мелочь какую упустил

Andrey
08.06.2018
09:06:36
Слова build тут нигде нет, всё совершенно верно подчеркнуто.
во-первых, IT automation это общее предназначение. Во вторых continuous delivery.

Страница 3951 из 4568