
Артур
21.02.2017
00:40:45
Или это сильнее нагружает БД?

Darafei
21.02.2017
05:20:12
в базе, в бекенде очень часто потом время начинает разъезжаться
а расскажите, чем порассматривать многомерный \crosstab?

Ilya
21.02.2017
09:03:21
Привет, сообщество. А как-то можно при
INSERT ON CONFLICT UPDATE
смержить два jsonb с помощью json_object? Как мне использовать текущее значение колонки?

Google

Vladimir
21.02.2017
09:05:24
https://www.postgresql.org/docs/9.6/static/sql-insert.html искать EXCLUDED

dmitriy
21.02.2017
09:07:15
UPDATE SET json_col = json_col || EXCLUDED.json_col

Ilya
21.02.2017
09:15:42

Nikita
21.02.2017
10:38:49
привет!
Задача: будет большая субд, около 20-50TB, требования:
1) целостность данных, т.е. все что записалось надо хранить как зеницу ока
2) отказоустойчивость

Александр
21.02.2017
10:41:59
и шо?)

Nikita
21.02.2017
10:42:00
синхронный мультимастер? синхронный мастерслейв?
и шо?)
как сделать чтобы было хорошо:)

Александр
21.02.2017
10:42:32
nosql

Nikita
21.02.2017
10:42:50
nosql с целостностью беда

Kirill
21.02.2017
10:43:15

Александр
21.02.2017
10:43:50
Тут вроде были dba как раз

Google

Александр
21.02.2017
10:43:52
?

Vladimir
21.02.2017
10:44:26

Nikita
21.02.2017
10:45:16
а. запись 95%, 5% чтение
ну и старые записи в будущем куда-нибудь в архив

Vladimir
21.02.2017
10:46:24
ну, как вариант в принципе
Но подумайте о профиле запросов, если вы не вписываетесь в паттерн "запросы только по основным ключам" Cassandra вам не подходит. Но с вашим профилем нагрузки она может дать необходимую сохранность данных и простоту настройки кластера

Nikita
21.02.2017
10:48:30
пойду почитаю как там целостность данных обеспечивается

Артур
21.02.2017
10:50:32

Nikita
21.02.2017
10:51:12

Артур
21.02.2017
10:51:16
да
https://msdn.microsoft.com/en-us/library/ms143432.aspx
Может неправильно прочитал...
Если так, не пинайте
Подозреваю что оракл тоже должен большие базы держать

Igor
21.02.2017
10:52:29

Артур
21.02.2017
10:52:48
Они, конечно, коммерческие, но такие объемы данных уже не стартап :)

Nikita
21.02.2017
10:52:49

Igor
21.02.2017
10:52:52
а то может OLAP там, все такое
greenplum, vertica, clickhouse, хуемое
а, тогда не по адресу

Nikita
21.02.2017
10:53:38
постгре с перконой можно не смотреть?

Google

Артур
21.02.2017
10:53:47
32Тб

Nikita
21.02.2017
10:53:51
перкона мультимастер, например

Артур
21.02.2017
10:53:56

Nikita
21.02.2017
10:54:16
это постгре?

Артур
21.02.2017
10:54:21
да
если таблицы разбить - можно и бещлимитно :)

Vladimir
21.02.2017
10:54:35
https://www.postgresql.org/about/

Nikita
21.02.2017
10:54:52
ну, там основная идея разбить на базы, и писать каждый год в новую

Артур
21.02.2017
10:55:29
В postgre лимит на таблицу есть. Может ине будет таого объема. Подумайте. Тогда и postgres подойдет
Но железо всеравно придетсяпокупать

Петр
21.02.2017
10:55:47
Стебелек бд подойдет

Nikita
21.02.2017
10:56:06

Александр
21.02.2017
10:56:26
На амазоне имхо такое только пускать
Своё дорого брать будет столько железа
А что за данные?
Прям интересно стало

Nikita
21.02.2017
10:57:00

Alex
21.02.2017
10:57:16
сервера то хоть свои ?

Nikita
21.02.2017
10:57:38

Google

Alex
21.02.2017
10:58:03
секционирование по времени и вперед.

Nikita
21.02.2017
10:59:06
говорят что план в год 30Tb ?
как-то впритык
разве что по полгода разбивать
+ как-то или каскадную репликацию, или синхронную multislave

Alexey
21.02.2017
11:00:27
если идти с PG и иметь горизонтальное масштабирование, то я бы на Citus еще глянул

Александр
21.02.2017
11:05:56
Месяцами норм было б
Хоть до посинения фигачить

Nikita
21.02.2017
11:07:13
как вариант. а как насчет HA?
синхронный мультислейв?
оченьь важно, что если мы данные уже записали, то их терять нельзя от слова совсем
не записать и сообзить об этом клиенту - допустимо

Anatoliy
21.02.2017
11:14:14
Ну слейв по дефолту надо. Дампить такие объемы наверное смысла не имеет.

Nikita
21.02.2017
11:15:23
а если помер мастер, вручную переключаться на слейв?

Anatoliy
21.02.2017
11:15:37
Угу

Айтуар
21.02.2017
11:15:39

Anatoliy
21.02.2017
11:15:51
Ну два сервака сразу не умрет)

Nikita
21.02.2017
11:15:57
люди хотят Master-Slave x 3 DC

Anatoliy
21.02.2017
11:15:58
А поднять 50ТБ+ из бекапа
то еще удовольствие

Google

Nikita
21.02.2017
11:16:22
максимальный даунтайм наверное с час

Anatoliy
21.02.2017
11:16:29
Этого более чем
чтобы переключится
Если целостность важна – то автоматика может неприятно удивить (я бы автофейловерам не доверял, наверняка кто-нибудь посоветует)

Kirill
21.02.2017
11:18:01
ок, зачем вы беретесь за то в чем вообще не разбираетесь, если им (заказчикам) важна сохранность данных, то какого, извините, черта вы туда лезете ?

Айтуар
21.02.2017
11:18:18
Ещё раз отпишусь - слейв не замена бекапа. Лишь отчасти если есть задержка большая между мастером и слейвом на пару часов.

Anatoliy
21.02.2017
11:18:55
Это какой надо иметь поток записи, чтобы таймлаг был в часах.

Артур
21.02.2017
11:19:28

Kirill
21.02.2017
11:19:56

Айтуар
21.02.2017
11:19:58
Все равно непрерывный бекап скушает место и ресурсы.

Nikita
21.02.2017
11:20:32

Darafei
21.02.2017
11:20:56
разбираются обычно к третьей потере базы

Айтуар
21.02.2017
11:21:11

Anatoliy
21.02.2017
11:23:05
Мастер+хот стендбай возможно будет не самым плохим вариантом, как мне кажется с таким объемом.
Из бекапа вы не поднимите этот объем за допустимый даунтайм

Nikita
21.02.2017
11:23:33