@ru_python

Страница 9574 из 9768
Tishka17
11.07.2019
16:53:37
Почему?
Ну а за счёт чего будет выигрыш скорости?

Likanov
11.07.2019
16:53:44
Я думал над ассинхронным реплецированием

Google
Daniil
11.07.2019
16:54:56
Выигрыш в скорости запросов?

Tishka17
11.07.2019
16:55:03
Но для тренировки можешь конечно на одной машине и разных виртуалках

Daniil
11.07.2019
16:55:04
Записи, чтения

Если на разных машинах, то ширина канал достаточная должна быть

Likanov
11.07.2019
16:56:51
Просто основной ботлнек у меня в том, что аналитик хочет, чтобы мы из этих данных собирали новую сущность(считаем по ним), но для этого нужен запрос который берет одну строчку из одной таблицы и ищет связные с ним данные в другой(one-to-many), считает - выплевывает сущность. Я думал сделать это статикой и по рассписанию как-то

Колбасить на бекенде и кидать в mongodb какую нибудь

Daniil
11.07.2019
16:57:56
Можешь посмотреть в сторону Apache airflow

Я так понял etl какой-то

Likanov
11.07.2019
16:58:28
Колбасить на бекенде и кидать в mongodb какую нибудь
а так как у монги с чтением получше, чем у постгреса(по слухам, хз на самом деле), то сортировать уже беком программно и выплевывать через api

Daniil
11.07.2019
16:59:04
Extract transform load

Likanov
11.07.2019
17:02:30
Extract transform load
Да, такой процесс

Google
м_м
11.07.2019
17:04:08
электронная техника

Nikolay
11.07.2019
17:04:26
В чтении много нюансов . Например можно читать асинхронно кусочками

м_м
11.07.2019
17:05:18
сомневаюсь что бест практикс, игнорируются в чтение топовых решениях ПО

Nikolay
11.07.2019
17:05:52
Обычный read - синхронный , но есть io_submit, который асинхронный .

Likanov
11.07.2019
17:06:12
Лан, спасибо за инфу

м_м
11.07.2019
17:11:34
И часто ему это надо?
"стоит ли тратить время на автоматизацию", последнее время вспоминаю старое доброе "худая овчинка выделки не стоит" ?

Likanov
11.07.2019
17:11:46
И часто ему это надо?
По запросу, по сути

Сервис по сути отчеты рисует

Tishka17
11.07.2019
17:12:16
По запросу, по сути
Ну я имел ввиду как часто запросы и сколько времени выполняется сейчас запрос

Tishka17
11.07.2019
17:12:41
Ну 15 секунд можно и подождать

Это же отчёты

Likanov
11.07.2019
17:13:00
Tishka17
11.07.2019
17:13:09
Лишь бы это не тормозило всю остальную систему

Google
Likanov
11.07.2019
17:13:40
Проблема в записи потом будет

Tishka17
11.07.2019
17:13:48
Какой записи. Ты же сказал отчёт

Likanov
11.07.2019
17:13:48
Как часто?
Ну рпс не скажу

м_м
11.07.2019
17:14:00
это уже называется не здоровый перфекционизм

Tishka17
11.07.2019
17:14:14
Ну аналитический отчёт же не строится каждую секунду. Хорошо если раз в час. Не?

Likanov
11.07.2019
17:14:59
Какой записи. Ты же сказал отчёт
Процесс такой. Файл приходит, файл парсится и сохраняет 200к записей в базу. 200к записей сохраняются долго джангой

Tishka17
11.07.2019
17:15:12
Чо

Likanov
11.07.2019
17:15:20
Приходят сейчас раз в день, потом будут проходить, раз в 10 минут

Tishka17
11.07.2019
17:15:26
Ты только что говорил "построить отчёт по базе"

Теперь мы что-то пишем

Давай целиком задачу

Likanov
11.07.2019
17:15:51
Погоди тогда секу)

Melkor
11.07.2019
17:20:23
Ку

Есть кто юзает filebrowser под джангой?

Django-filebrowser

м_м
11.07.2019
17:23:36
у меня такой риторический вопрос хочу начать один из двух проектов(открытых). один интересный и мне его хочется делать, но результат - неизвестно когда будет. второй не так интересен, но я знаю что делать, и результат известен, но он продолжительный. ожидаемый результат от обоих проектов: хорошее портфолио вопрос: какой проект лучше делать?

м_м
11.07.2019
17:25:09
Likanov
11.07.2019
17:25:31
Есть джанга + постгрес + nginx Внутри джанги написал скрипт, который собирает файлики которые приходят раз а день на почту. Файлики парсятся и данные складываются в базу(есть также таблицы зависимостей, которые указывают с чем соотносить данные из файлика). Есть апи, которая ходит в базу за данными (там всякие методы, которые фильтруют и сортируют сырые данные нужным образом). Один из методов забирает сырые данные и считает всякое, выкидывая новые сущности(типа взять дельту за определенную дату). Так как данных дохрена, вытаскивает он это очень долго. Фронт из этих данных формирует отчетики и графики

Google
Tishka17
11.07.2019
17:26:01
Тогда первый

3 месяца это довольно большой срок, чтобы говорить о предсказуемом результате

м_м
11.07.2019
17:27:41
так неизвестно - это еще больше.

Likanov
11.07.2019
17:28:42
Хм. Вот я тут даже не знаю зачем тут постгрес и монга одновременно
Ну а представь количество новых сущностей, за один день, если в одном отчёте 100к строк

Или 200

Tishka17
11.07.2019
17:29:30
Ну а представь количество новых сущностей, за один день, если в одном отчёте 100к строк
100к строк - это уже не отчёт, а какие-то сырые данные для отчета

Что ты имеешь ввиду?
На этапе заполнения не раскидывать по разными таблицам то, что все равно потом всегда джойнить

Usman
11.07.2019
17:30:10
Ребят как инкапсулу обойти помогите плез ?

Usman
11.07.2019
17:30:26
капча

наподобии

м_м
11.07.2019
17:30:56
Возможно ты можешь сделать часть этого неизвестного
по тебе лучше интересное и неизвестное, чем пилить велосипеды ? )

Христофор Колумб

Tishka17
11.07.2019
17:32:27
капча
Попробуй написать автору сайта, может быть он тебе даст нормальное апи

по тебе лучше интересное и неизвестное, чем пилить велосипеды ? )
Лучше новое чем велосипед. Лучше интересное чем скучное.

Google
Tishka17
11.07.2019
17:34:12
Но возможно второе решается без велосипедлстроения

Likanov
11.07.2019
17:35:58
На этапе заполнения не раскидывать по разными таблицам то, что все равно потом всегда джойнить
А как тогда мне связи искать. На строки, по которым искать, индексы поставить? Дело даже не в join, а в огромных выборках

Tishka17
11.07.2019
17:36:25
У тебя в постгресе есть blob, hset, json поля. Можешь юзать

Если тебе всегда надо вытаскивать какую-то сущность целиком - нет особого смысла её нормализовать и класть в кучу таблиц.

Ну и так же, ты можешь одновременно хранить нормализованное и денормализованное представление.

Likanov
11.07.2019
17:40:12
Эм. Зачем искать связи?
Суммировать данные нужно отталкиваясь от связных обектов

Tishka17
11.07.2019
17:41:27
Ты можешь при записи считать. Если запись реже чем чтение

м_м
11.07.2019
17:44:23
3 месяца это довольно большой срок, чтобы говорить о предсказуемом результате
а какой срок тогда стоит брать во внимание? месяц? недели?

ты прям как шар предсказаний)))

Tishka17
11.07.2019
17:49:19
а какой срок тогда стоит брать во внимание? месяц? недели?
Хз. Я бы для пет проектов ориентировался на пару недель. Ну то есть можно и три месяца при условии, что через месяц будет какой-то прототип

Если это никому ненужная вещь, ты за месяц-другой без mvp выгораешь

Likanov
11.07.2019
17:53:56
Ты можешь при записи считать. Если запись реже чем чтение
К сожалению, не могу, потому что не знаю будут ли запрошенны данные за эту дату при записи

Tishka17
11.07.2019
17:55:07
Maxim
11.07.2019
18:11:22


Aragaer
11.07.2019
18:19:22
настроить то, где оно отображается, чтобы нормально отображалось

Страница 9574 из 9768