@devops_ru

Страница 3983 из 4568
Constantin
21.06.2018
14:09:22
Нужно чтобы файлы было легко реплицировать в пределах одной сети, в т. ч. на серверах за DMZ

Снятие дампов и разворачивание с них на любой машине, чтобы можно было после «зачистки» погонять что-то на прод данных, но на локальных машинах

много файлов до 60 мегабайт, файлы создаются пользователями и закрепляются за их акаунтом, в grid вязали по внешнему ключу клиента
Пользователи разделены по группам, грубо говоря есть мало пользователей которые публикуют мало файлов, для своей группы, эта группа иногда публикует ответные файлы (примерно по 0-10 на пользователя), таких пользователей от 10к до 150к, в зависимости от проекта

Google
No1
21.06.2018
14:28:06
Отдача файлов по https, периодически нужна возможность докачки с рандомного чанка
не будут в нормальном хранилище по чанкам биться, это не монга ?

Constantin
21.06.2018
14:28:34
No1
21.06.2018
14:28:46
ну я про это и говорю

Constantin
21.06.2018
14:29:20
ну я про это и говорю
Ок, неправильно понял

No1
21.06.2018
14:30:15
А вам совсем с S3 никак?

21.06.2018
14:30:48
уже предлагали ему ceph

No1
21.06.2018
14:31:26
Ну да, тут маловато вариантов ? ceph будет гибче, но опять же как там с DMZ, если только 80/443 открыты

Constantin
21.06.2018
14:32:03
А вам совсем с S3 никак?
Ну если его можно за DMZ поставить, то в принципе как вариант пойдет + существуют периодически региональные требования, которые ставяь на облаке крест

Но насколько я понимаю, S3 — это чисто облако

No1
21.06.2018
14:32:42
ну не ? там приницип работы другой немного

щупайте ceph

21.06.2018
14:32:54
на одном из мест работы делал на nginx обычное проксирование до ceph который отдавал файлы только с определенных бакетов и тд, а на nginx уже можно сделать хотя бы basic авторизацию, обернуть https и тд

но не хранить файлы в базе

Google
Валерий
21.06.2018
14:35:41
а зачем файлы в базе хранить? никогда о таком не слышал

21.06.2018
14:36:15
я видел такое, хранили в base64 в mssql

Алексей
21.06.2018
14:36:39
Ванько
21.06.2018
14:36:46
21.06.2018
14:36:56
ну они их развонрачивали из base64 потом

No1
21.06.2018
14:36:56
я видел в pg в base64 ? pdf

А что не так с dmz? Ceph же в режиме radosGW юзать надо для s3
вы предлагаете и S3 и Ceph использовать? сразу обе две?

Алексей
21.06.2018
14:38:04
Base64 вроде только текст кодирует или нет?

Ванько
21.06.2018
14:38:07
S3 - это, как уже сказали, протокол

Он реализован в ceph как radosgw

Валерий
21.06.2018
14:38:41
Так в чем принципиальная польза хранить файлы в БД?

No1
21.06.2018
14:40:43
Зачем? Просто использовать radosgw
предлагали nginx даже как вариант

Ванько
21.06.2018
14:41:18
предлагали nginx даже как вариант
Его только в качестве прокси, разве что

Но вообще у меня в качестве прокси и балансера там gobetween

Alan
21.06.2018
14:43:33
Ванько
21.06.2018
14:43:40
Он и серты сразу для https подсовывает

Странно, что хэдуп никто не предложил

No1
21.06.2018
14:47:53
hdfs?

Alan
21.06.2018
14:48:33
Хдфс лучше для больших файлов

Google
Constantin
21.06.2018
14:50:24
Так, я сейчас коротко расскажу, как так получилось, и давайте закроем тему файлов в базе (так сейчас я пришел за поиском ответа, как уйти от этого, не потеряв в гибкости) Когда ты маленький команда 3-5 человек, то чем меньше у тебя задействовано разных систем, тем проще: учить, разворачивать, разрабатывать. Файлы в базе решали для нас проблему репликации и быстрого переезда, в т. ч. на машину разработчика, когда что-то нужно проверить на боевых данных, после их чистки. Файлы в базе хранятся не в виде Base64, а в бинарном виде, разбитыми на кучу чанков, что позволяло читать и отдавать их потоками через Node, с проверкой прав, при удалении или переезде пользователя убирать его данные нафиг с проекта, когда они становились не нужны. До появления Ansible в команде, и прочих прибомбасов приходилось это все быстро разворачивать и перевозить руками (до сих пор иногда попадаются настолько ядреные среды, что приходится это все делать в них руками). Сейчас есть проблема, что в проектах 50-150к отдача файлов стала не критично, но туговатой, озаботились слезанием с GridFS, на что-то, что будет близко к «нативной» отдаче через Nginx

Пока мы общаемся, я смотрю на Ceph и он мне нравится, но понятно, что придется под требования задачи поверх прослойку для проверки авторизации, и все равно прокачивать файл через бэкенд. Я еще пока не понял, можно ли у него вытащить часть файла по Range, чтобы сделать докачку

Alan
21.06.2018
14:54:57
Что значит через бэкенд? Там же через ргв идёт

Constantin
21.06.2018
14:56:50
Constantin
21.06.2018
14:58:31
Так там же есть access key и secret key, всё, как в s3
да я слепой просто, не увидел сразу

21.06.2018
15:07:07
Base64 вроде только текст кодирует или нет?
насколько я помню они брали файл, делали из него binary, потом в строку и base64, либо какой-то другой изврат был

Alesha
21.06.2018
15:09:12
где можно глянуть примеры, сложных пайплайнов для дженкинса?

Evgenii
21.06.2018
15:11:56
на сколько именно сложных?

Alesha
21.06.2018
15:13:26
да хз, что нибудь на подобии мульти энва + несколько хостов + куча кастомных параметров и тд и все в одном ))

понятно, что один проект = один пайп(test/stage/prod + пачка тестов)

да хз, что нибудь на подобии мульти энва + несколько хостов + куча кастомных параметров и тд и все в одном ))
можно конечно наделать кучу пайпов узкозаточенных, но больше даже вопрос, на сколько реально это сделать и есть ли в этом смысл?

Constantin
21.06.2018
15:18:50
Ребят, спасибо вам

Silent Bob
21.06.2018
15:49:06
Кстати, немного про баш, и то как использовать его функции https://medium.com/@vfreefly/increase-readability-of-your-bash-scripts-using-functions-a4e2072ede8

Volodimir Fedorov
21.06.2018
17:07:33
шел 2018 год.. люди пишут мануалы по использованию функций в баше.

так глядишь свежие маны по перлу подвезут

Alexander
21.06.2018
17:13:26
@VladimirSin да ладно, норм. Гайд по стилю для новичков. Больше здравого смысла в массы.

Volodimir Fedorov
21.06.2018
17:18:26
http://paste.org.ru/?or5ngz не баш конечно, но тоже с функциями и анси) мой самый жирный батник

Google
Igor
21.06.2018
17:20:12
а что баш уже не в тренде? Чем его заменяют?

Volodimir Fedorov
21.06.2018
17:20:57
змея

но кто говорит что баш не в тренде? просто спустя ~30 лет с момента создания баша все еще пишут мануалы на него)

Corsars
21.06.2018
18:17:11
поддержу - bash у меня в проде на первом месте - потом уже идет csh

Нафига ?

Andrey
21.06.2018
19:01:48
просто он по умолчанию устанавливается

я на новом ноуте всегда одной из первых команд запускаю chsh

Дмитрий ◄ E11 ► elpdmit
21.06.2018
19:11:39
Доброго всем времени суток коллеги!!! Возник вот какой вопрос: Имеется в наличии ElasticSearch - загружены в него данные (немного криво) файлик через filebeat - и самое интересное что почти вся строка лога попала в message Так вот тут вопрос: есть действующий способ разбить это поле с помощью паттерна grok (Он уже имеется) на поля которые нужны, а все лишние поля из индекса удалить понимаю что все делается через реиндексацию, но вот порядок и сам механизм. За ранее спасибо за любую наводку

Nik
21.06.2018
19:14:00
Можно через logstash на вход один индекс из elastic, на выход другой, в filter что нужно делать

pav
21.06.2018
19:39:48
Ребята, вопрос к знатокам. Надо одной кнопкой ( :) ) развернуть на одной машине image из хаба докера и по хукам из хаба делать redeploy. Что посоаетуете?

Михаил
21.06.2018
19:42:29
Jenkins

Дмитрий ◄ E11 ► elpdmit
22.06.2018
04:42:09
А в чем вопрос? Пишите шаблон в логстеше. Дефолтных регулярок достаточно
хотелось бы не использовать logstash как дополнительное звено - при отказе. вопрос по индексу: возможно ли его переиндексовать - с удалением ненужных полей и разбивкой поля "message", которые будут созданы при разбивке поля? Позволяет ли это сделать scripting ? в идеале хотелось бы не использовать logstash

Banschikov
22.06.2018
04:55:04
Все привет! Мне нужно через terraform создать 10-15 k8s секретов. Подскажите как это можно сделать максимально компактно, что бы main.tf был минимально раздутый по размеру. По типу как в ansible loop или типа такого

Sergey
22.06.2018
05:10:45
Тегаете файлбит логи Готовите грок на логстеше под каждый тег если логи разные и уже тогда шлете в эластик. Так что скорее файлбит лишнее звено чем logstash Иначе выходит что биты будут забивать сеть тоннами логов. Дабы этого избежать нужно в сеть пулять уже фильтрованные данные

Страница 3983 из 4568