
Constantin
21.06.2018
14:09:22
Нужно чтобы файлы было легко реплицировать в пределах одной сети, в т. ч. на серверах за DMZ
Снятие дампов и разворачивание с них на любой машине, чтобы можно было после «зачистки» погонять что-то на прод данных, но на локальных машинах

No1
21.06.2018
14:27:34

Google

No1
21.06.2018
14:28:06

Constantin
21.06.2018
14:28:34

No1
21.06.2018
14:28:46
ну я про это и говорю

Constantin
21.06.2018
14:29:20

No1
21.06.2018
14:30:15
А вам совсем с S3 никак?

☺
21.06.2018
14:30:48
уже предлагали ему ceph

No1
21.06.2018
14:31:26
Ну да, тут маловато вариантов ? ceph будет гибче, но опять же как там с DMZ, если только 80/443 открыты

Constantin
21.06.2018
14:32:03
А вам совсем с S3 никак?
Ну если его можно за DMZ поставить, то в принципе как вариант пойдет + существуют периодически региональные требования, которые ставяь на облаке крест
Но насколько я понимаю, S3 — это чисто облако

No1
21.06.2018
14:32:42
ну не ? там приницип работы другой немного
щупайте ceph

☺
21.06.2018
14:32:54
на одном из мест работы делал на nginx обычное проксирование до ceph который отдавал файлы только с определенных бакетов и тд, а на nginx уже можно сделать хотя бы basic авторизацию, обернуть https и тд
но не хранить файлы в базе

Google

Валерий
21.06.2018
14:35:41
а зачем файлы в базе хранить? никогда о таком не слышал

☺
21.06.2018
14:36:15
я видел такое, хранили в base64 в mssql

Алексей
21.06.2018
14:36:39

Ванько
21.06.2018
14:36:46

☺
21.06.2018
14:36:56
ну они их развонрачивали из base64 потом

No1
21.06.2018
14:36:56
я видел в pg в base64 ? pdf

Алексей
21.06.2018
14:38:04
Base64 вроде только текст кодирует или нет?

Ванько
21.06.2018
14:38:07
S3 - это, как уже сказали, протокол
Он реализован в ceph как radosgw

Валерий
21.06.2018
14:38:41
Так в чем принципиальная польза хранить файлы в БД?

No1
21.06.2018
14:40:43

Ванько
21.06.2018
14:41:18
Но вообще у меня в качестве прокси и балансера там gobetween

Alan
21.06.2018
14:43:33

Ванько
21.06.2018
14:43:40
Он и серты сразу для https подсовывает
Странно, что хэдуп никто не предложил

No1
21.06.2018
14:47:53
hdfs?

Alan
21.06.2018
14:48:33
Хдфс лучше для больших файлов

Google


Constantin
21.06.2018
14:50:24
Так, я сейчас коротко расскажу, как так получилось, и давайте закроем тему файлов в базе (так сейчас я пришел за поиском ответа, как уйти от этого, не потеряв в гибкости)
Когда ты маленький команда 3-5 человек, то чем меньше у тебя задействовано разных систем, тем проще: учить, разворачивать, разрабатывать.
Файлы в базе решали для нас проблему репликации и быстрого переезда, в т. ч. на машину разработчика, когда что-то нужно проверить на боевых данных, после их чистки.
Файлы в базе хранятся не в виде Base64, а в бинарном виде, разбитыми на кучу чанков, что позволяло читать и отдавать их потоками через Node, с проверкой прав, при удалении или переезде пользователя убирать его данные нафиг с проекта, когда они становились не нужны.
До появления Ansible в команде, и прочих прибомбасов приходилось это все быстро разворачивать и перевозить руками (до сих пор иногда попадаются настолько ядреные среды, что приходится это все делать в них руками).
Сейчас есть проблема, что в проектах 50-150к отдача файлов стала не критично, но туговатой, озаботились слезанием с GridFS, на что-то, что будет близко к «нативной» отдаче через Nginx
Пока мы общаемся, я смотрю на Ceph и он мне нравится, но понятно, что придется под требования задачи поверх прослойку для проверки авторизации, и все равно прокачивать файл через бэкенд. Я еще пока не понял, можно ли у него вытащить часть файла по Range, чтобы сделать докачку


Alan
21.06.2018
14:54:57
Что значит через бэкенд? Там же через ргв идёт

Constantin
21.06.2018
14:56:50

Ванько
21.06.2018
14:57:32
Саму авторизацию чтоль?
Так там же есть access key и secret key, всё, как в s3

Constantin
21.06.2018
14:58:31

☺
21.06.2018
15:07:07

Alesha
21.06.2018
15:09:12
где можно глянуть примеры, сложных пайплайнов для дженкинса?

Evgenii
21.06.2018
15:11:56
на сколько именно сложных?

Alesha
21.06.2018
15:13:26
да хз, что нибудь на подобии мульти энва + несколько хостов + куча кастомных параметров и тд и все в одном ))
понятно, что один проект = один пайп(test/stage/prod + пачка тестов)

Constantin
21.06.2018
15:18:50
Ребят, спасибо вам

Silent Bob
21.06.2018
15:49:06
Кстати, немного про баш, и то как использовать его функции https://medium.com/@vfreefly/increase-readability-of-your-bash-scripts-using-functions-a4e2072ede8

Volodimir Fedorov
21.06.2018
17:07:33
шел 2018 год.. люди пишут мануалы по использованию функций в баше.
так глядишь свежие маны по перлу подвезут

Alexander
21.06.2018
17:13:26
@VladimirSin да ладно, норм. Гайд по стилю для новичков. Больше здравого смысла в массы.

Volodimir Fedorov
21.06.2018
17:18:26
http://paste.org.ru/?or5ngz не баш конечно, но тоже с функциями и анси) мой самый жирный батник

Google

Igor
21.06.2018
17:20:12
а что баш уже не в тренде? Чем его заменяют?

Volodimir Fedorov
21.06.2018
17:20:57
змея
но кто говорит что баш не в тренде? просто спустя ~30 лет с момента создания баша все еще пишут мануалы на него)

Corsars
21.06.2018
18:17:11
поддержу - bash у меня в проде на первом месте - потом уже идет csh
Нафига ?

Andrey
21.06.2018
19:01:48
просто он по умолчанию устанавливается
я на новом ноуте всегда одной из первых команд запускаю chsh

Дмитрий ◄ E11 ► elpdmit
21.06.2018
19:11:39
Доброго всем времени суток коллеги!!!
Возник вот какой вопрос:
Имеется в наличии ElasticSearch - загружены в него данные (немного криво) файлик через filebeat - и самое интересное что почти вся строка лога попала в message
Так вот тут вопрос: есть действующий способ разбить это поле с помощью паттерна grok (Он уже имеется) на поля которые нужны, а все лишние поля из индекса удалить
понимаю что все делается через реиндексацию, но вот порядок и сам механизм.
За ранее спасибо за любую наводку

Nik
21.06.2018
19:14:00
Можно через logstash на вход один индекс из elastic, на выход другой, в filter что нужно делать

pav
21.06.2018
19:39:48
Ребята, вопрос к знатокам. Надо одной кнопкой ( :) ) развернуть на одной машине image из хаба докера и по хукам из хаба делать redeploy.
Что посоаетуете?

Михаил
21.06.2018
19:42:29
Jenkins

pav
21.06.2018
19:42:50

Sergey
22.06.2018
02:04:39


Дмитрий ◄ E11 ► elpdmit
22.06.2018
04:42:09
А в чем вопрос? Пишите шаблон в логстеше. Дефолтных регулярок достаточно
хотелось бы не использовать logstash как дополнительное звено - при отказе.
вопрос по индексу: возможно ли его переиндексовать - с удалением ненужных полей и разбивкой поля "message", которые будут созданы при разбивке поля?
Позволяет ли это сделать scripting ?
в идеале хотелось бы не использовать logstash

Banschikov
22.06.2018
04:55:04
Все привет! Мне нужно через terraform создать 10-15 k8s секретов. Подскажите как это можно сделать максимально компактно, что бы main.tf был минимально раздутый по размеру. По типу как в ansible loop или типа такого

Sergey
22.06.2018
05:10:45
Тегаете файлбит логи
Готовите грок на логстеше под каждый тег если логи разные и уже тогда шлете в эластик. Так что скорее файлбит лишнее звено чем logstash Иначе выходит что биты будут забивать сеть тоннами логов. Дабы этого избежать нужно в сеть пулять уже фильтрованные данные