@dba_ru

Страница 420 из 718
Vladislav
13.02.2018
09:19:25
все зависит от того, что и как хранить

Alex
13.02.2018
09:19:44
3 объекта по 1.2 Тб

в жсоне

точно

Google
Al
13.02.2018
09:19:50
Да хоть что храни. У тебя стены по каждому квадрату почии

Либо будут пустые поля и векторные стены

Тож мне гугл мап изобрел

Vladislav
13.02.2018
09:22:53
1. одна стена относится к двум квадратам, всегда! 2. необязательно хранить каждый квадрат

но вы продолжайте, мне интересно

Vladislav
13.02.2018
09:24:31
внешний периметр

он константа

Al
13.02.2018
09:26:33
Ё он заполнил лабиринт в шахматном порядке. Теперь 2.25т

Vladislav
13.02.2018
09:27:13
в общем я понял, что задача вам не интересна, головой думать не охото, проехали

Al
13.02.2018
09:31:12
Трололо

точно
Придумал чем будешь тролить?

aster
13.02.2018
10:23:31
http://journal.stuffwithstuff.com/2014/12/21/rooms-and-mazes/

Google
Vladislav
13.02.2018
10:31:47
http://donjon.bin.sh/d20/dungeon/

aster
13.02.2018
10:39:28
и дверь внутри объекта, а не на границе между двумя объектами

Al
13.02.2018
10:41:48
Чейта не миллион на миллион

В мурзилке и то лабиринты больше были

Олег
13.02.2018
19:12:46
@alexey_kopytov ping?

впрочем, задам вопрос всем: скуль подавляющее время проводит в rec_get_offsets_func() и в buf_page_get_gen()

по описанию первого выглядит как будто он занят довольно бесполезной работой

куда копнуть, чтобы облегчить участь сервера?

malcev
14.02.2018
11:00:00
подскажите плз, как через консоль postgre удалить все таблички с префиксом





как вы могли догадаться

у меня есть таблицы с определнным префиксом

когда их 8, это накладно, но реализуемо

если у меня их будет около 20-30, можно ли как-то красиво их удалять?

Denis
14.02.2018
11:04:25
https://stackoverflow.com/questions/27610890/drop-all-tables-sharing-the-same-prefix-in-postgres

Ilia
14.02.2018
12:17:34
Генерацию запросов другим запросом

Trx
14.02.2018
19:52:33
Всем привет, есть вопрос по бд: влияет ли на скорость обработки данных величина(кол-во строк) таблицы? есть ли смысл разбивать на несколько таблиц большую таблицу для ускорения обработки данных?

в таблице в общей сложности накапливается более 100млн строк за день

Google
Anton
14.02.2018
19:54:58
конечно влияет

Trx
14.02.2018
19:58:21
Снимаю дамп каждый день

Какое может может быть решение для этой проблемы?

Сам сижу на ms sql

После дампа соответственно чищу все таблицы

Anton
14.02.2018
20:01:53
После дампа соответственно чищу все таблицы
ттогда навероное смысла нет...

Ilia
14.02.2018
20:02:26
100 млн в первый день, 100 млн во второй? И так далее?

Ilia
14.02.2018
20:02:55
Всего сколько?

Trx
14.02.2018
20:03:04
~90-110 если быть точным каждый день

всего около 100 млн в день потом с этими данными не работаю

Ilia
14.02.2018
20:05:31
Ну ты долго так не протянешь...

10 дней и миллиард.

Месяц - три.

Год 30 млрд.

А это уже серьезно

Как ты это все паковать далее собираешься?

Alex
14.02.2018
20:16:34
секционирование же

Google
Alex
14.02.2018
20:16:40
100 млн в день норм

Ilia
14.02.2018
20:16:50
Просто таблицы то бить не надо, но у обычных СУБД есть гипотетический предел в миллиард записей. Обычно больше миллиарда они не тянут

Alex
14.02.2018
20:16:51
потом агрегируешь по месяцам

все равно архивы не нужны как правило

при таких объемах, а лишь агрегаты какие то

ну у меня были кейсы когда надо было хранить по дням данные за 4.5 месяца

и каждый день прилетало 80-120 млн записей

без секционирования никуда, увы

+ со временем скидывание архивов на более медленные хранилища

Ilia
14.02.2018
20:18:40
секционирование же
Секционирование оцтой. Надо бешеное количество секций нарезать, да ещё и следить, чтобы prune ились...

Alex
14.02.2018
20:19:09
automate it, dude!

Ilia
14.02.2018
20:19:28
А если надо ВСЕ обработать - то все, приехали.

Alex
14.02.2018
20:19:48
все обычно на таких объемах ненужны

но за 2-3 месяца легко

Dmitriy
14.02.2018
21:18:01
Короче. Если nosql, то касандра или аэроспайк. Если sql, то ...... ну вы поняли ?

Trx
14.02.2018
22:31:28
Я так и не понял, надо на подтаблицы разбивать или нет?

с данными предыдущих дней работать не надо

они просто в архив уходят (грубо говоря)

мне необходимо максимально быстрая работа среди самих 100 млн

это с учетом что я с ними буду работать через entity framework

Google
Aleksander
15.02.2018
05:15:42
мне необходимо максимально быстрая работа среди самих 100 млн
А в чем заключается работа (поиск среди этих данных, расчет статистик и т.п.), какой они формы (ид + пара колонок с цифрами или сотни текстовых колонок), сколько места занимают эти 100М?

Страница 420 из 718