
Vladislav
13.02.2018
09:19:25
все зависит от того, что и как хранить

Alex
13.02.2018
09:19:44
3 объекта по 1.2 Тб
в жсоне
точно

Google

Al
13.02.2018
09:19:50
Да хоть что храни. У тебя стены по каждому квадрату почии
Либо будут пустые поля и векторные стены
Тож мне гугл мап изобрел

Vladislav
13.02.2018
09:22:53
1. одна стена относится к двум квадратам, всегда!
2. необязательно хранить каждый квадрат
но вы продолжайте, мне интересно

Al
13.02.2018
09:24:07

Vladislav
13.02.2018
09:24:31
внешний периметр
он константа

Al
13.02.2018
09:26:33
Ё он заполнил лабиринт в шахматном порядке. Теперь 2.25т

Vladislav
13.02.2018
09:27:13
в общем я понял, что задача вам не интересна, головой думать не охото, проехали

Al
13.02.2018
09:31:12
Трололо
точно
Придумал чем будешь тролить?

aster
13.02.2018
10:23:31
http://journal.stuffwithstuff.com/2014/12/21/rooms-and-mazes/

Google

Vladislav
13.02.2018
10:31:47
http://donjon.bin.sh/d20/dungeon/

aster
13.02.2018
10:39:28
и дверь внутри объекта, а не на границе между двумя объектами

Al
13.02.2018
10:41:48
Чейта не миллион на миллион
В мурзилке и то лабиринты больше были

Олег
13.02.2018
19:12:46
@alexey_kopytov ping?
впрочем, задам вопрос всем:
скуль подавляющее время проводит в rec_get_offsets_func() и в buf_page_get_gen()
по описанию первого выглядит как будто он занят довольно бесполезной работой
куда копнуть, чтобы облегчить участь сервера?

malcev
14.02.2018
11:00:00
подскажите плз, как через консоль postgre удалить все таблички с префиксом
как вы могли догадаться
у меня есть таблицы с определнным префиксом
когда их 8, это накладно, но реализуемо
если у меня их будет около 20-30, можно ли как-то красиво их удалять?

Denis
14.02.2018
11:04:25
https://stackoverflow.com/questions/27610890/drop-all-tables-sharing-the-same-prefix-in-postgres

Ilia
14.02.2018
12:17:34
Генерацию запросов другим запросом

Trx
14.02.2018
19:52:33
Всем привет, есть вопрос по бд: влияет ли на скорость обработки данных величина(кол-во строк) таблицы? есть ли смысл разбивать на несколько таблиц большую таблицу для ускорения обработки данных?
в таблице в общей сложности накапливается более 100млн строк за день

Google

Anton
14.02.2018
19:54:58
конечно влияет

Ilia
14.02.2018
19:56:48

Trx
14.02.2018
19:58:21
Снимаю дамп каждый день
Какое может может быть решение для этой проблемы?
Сам сижу на ms sql
После дампа соответственно чищу все таблицы

Anton
14.02.2018
20:01:53

Ilia
14.02.2018
20:02:26
100 млн в первый день, 100 млн во второй? И так далее?

Trx
14.02.2018
20:02:38

Ilia
14.02.2018
20:02:55
Всего сколько?

Trx
14.02.2018
20:03:04
~90-110 если быть точным каждый день
всего около 100 млн в день потом с этими данными не работаю

Ilia
14.02.2018
20:05:31
Ну ты долго так не протянешь...
10 дней и миллиард.
Месяц - три.
Год 30 млрд.
А это уже серьезно
Как ты это все паковать далее собираешься?

Alex
14.02.2018
20:16:34
секционирование же

Google

Alex
14.02.2018
20:16:40
100 млн в день норм

Ilia
14.02.2018
20:16:50
Просто таблицы то бить не надо, но у обычных СУБД есть гипотетический предел в миллиард записей. Обычно больше миллиарда они не тянут

Alex
14.02.2018
20:16:51
потом агрегируешь по месяцам
все равно архивы не нужны как правило
при таких объемах, а лишь агрегаты какие то
ну у меня были кейсы когда надо было хранить по дням данные за 4.5 месяца
и каждый день прилетало 80-120 млн записей
без секционирования никуда, увы
+ со временем скидывание архивов на более медленные хранилища

Ilia
14.02.2018
20:18:40
секционирование же
Секционирование оцтой.
Надо бешеное количество секций нарезать, да ещё и следить, чтобы prune ились...

Alex
14.02.2018
20:19:09
automate it, dude!

Ilia
14.02.2018
20:19:28
А если надо ВСЕ обработать - то все, приехали.

Alex
14.02.2018
20:19:48
все обычно на таких объемах ненужны
но за 2-3 месяца легко

Dmitriy
14.02.2018
21:18:01
Короче. Если nosql, то касандра или аэроспайк. Если sql, то ...... ну вы поняли ?

Trx
14.02.2018
22:31:28
Я так и не понял, надо на подтаблицы разбивать или нет?
с данными предыдущих дней работать не надо
они просто в архив уходят (грубо говоря)
мне необходимо максимально быстрая работа среди самих 100 млн
это с учетом что я с ними буду работать через entity framework

Google

Aleksander
15.02.2018
05:15:42