@pgsql

Страница 251 из 1062
Артур
21.02.2017
00:40:45
Или это сильнее нагружает БД?

Darafei
21.02.2017
05:20:12
в базе, в бекенде очень часто потом время начинает разъезжаться

а расскажите, чем порассматривать многомерный \crosstab?

Ilya
21.02.2017
09:03:21
Привет, сообщество. А как-то можно при INSERT ON CONFLICT UPDATE смержить два jsonb с помощью json_object? Как мне использовать текущее значение колонки?

Google
Vladimir
21.02.2017
09:05:24
https://www.postgresql.org/docs/9.6/static/sql-insert.html искать EXCLUDED

dmitriy
21.02.2017
09:07:15
UPDATE SET json_col = json_col || EXCLUDED.json_col

Ilya
21.02.2017
09:15:42
UPDATE SET json_col = json_col || EXCLUDED.json_col
ERROR: column reference "json_col" is ambiguous

ERROR: column reference "json_col" is ambiguous
всё ок, сработало, над добавить название таблицы=)

Nikita
21.02.2017
10:38:49
привет!

Задача: будет большая субд, около 20-50TB, требования: 1) целостность данных, т.е. все что записалось надо хранить как зеницу ока 2) отказоустойчивость

Александр
21.02.2017
10:41:59
и шо?)

Nikita
21.02.2017
10:42:00
синхронный мультимастер? синхронный мастерслейв?

и шо?)
как сделать чтобы было хорошо:)

Александр
21.02.2017
10:42:32
nosql

Nikita
21.02.2017
10:42:50
nosql с целостностью беда

Kirill
21.02.2017
10:43:15
Александр
21.02.2017
10:43:50
Тут вроде были dba как раз

Google
Александр
21.02.2017
10:43:52
?

Nikita
21.02.2017
10:45:16
cassandra?
ну, как вариант в принципе

а. запись 95%, 5% чтение

ну и старые записи в будущем куда-нибудь в архив

Vladimir
21.02.2017
10:46:24
ну, как вариант в принципе
Но подумайте о профиле запросов, если вы не вписываетесь в паттерн "запросы только по основным ключам" Cassandra вам не подходит. Но с вашим профилем нагрузки она может дать необходимую сохранность данных и простоту настройки кластера

Nikita
21.02.2017
10:51:12
mssql - 500 Тб размер
максимальный?

Артур
21.02.2017
10:51:16
да

https://msdn.microsoft.com/en-us/library/ms143432.aspx Может неправильно прочитал...

Если так, не пинайте

Подозреваю что оракл тоже должен большие базы держать

Артур
21.02.2017
10:52:48
Они, конечно, коммерческие, но такие объемы данных уже не стартап :)

Nikita
21.02.2017
10:52:49
а че внутри храниться-то будет?
какие-то мифические "пакеты" в несколько кб

Igor
21.02.2017
10:52:52
а то может OLAP там, все такое greenplum, vertica, clickhouse, хуемое

а, тогда не по адресу

Nikita
21.02.2017
10:53:38
постгре с перконой можно не смотреть?

Google
Артур
21.02.2017
10:53:47
32Тб

Nikita
21.02.2017
10:53:51
перкона мультимастер, например

Артур
21.02.2017
10:53:56


Nikita
21.02.2017
10:54:16
это постгре?

Артур
21.02.2017
10:54:21
да

если таблицы разбить - можно и бещлимитно :)

Vladimir
21.02.2017
10:54:35
https://www.postgresql.org/about/

Nikita
21.02.2017
10:54:52
ну, там основная идея разбить на базы, и писать каждый год в новую

Артур
21.02.2017
10:55:29
В postgre лимит на таблицу есть. Может ине будет таого объема. Подумайте. Тогда и postgres подойдет

Но железо всеравно придетсяпокупать

Петр
21.02.2017
10:55:47
Стебелек бд подойдет

Nikita
21.02.2017
10:56:06
Александр
21.02.2017
10:56:26
На амазоне имхо такое только пускать

Своё дорого брать будет столько железа

А что за данные?

Прям интересно стало

Nikita
21.02.2017
10:57:00
Alex
21.02.2017
10:57:16
сервера то хоть свои ?

Nikita
21.02.2017
10:57:38
А что за данные?
точно не знаю, какие-то "пакеты данных"

Google
Alex
21.02.2017
10:58:03
секционирование по времени и вперед.

Nikita
21.02.2017
10:59:06
говорят что план в год 30Tb ?

как-то впритык

разве что по полгода разбивать

+ как-то или каскадную репликацию, или синхронную multislave

Alexey
21.02.2017
11:00:27
если идти с PG и иметь горизонтальное масштабирование, то я бы на Citus еще глянул

Александр
21.02.2017
11:05:56
Месяцами норм было б

Хоть до посинения фигачить

Nikita
21.02.2017
11:07:13
как вариант. а как насчет HA?

синхронный мультислейв?

оченьь важно, что если мы данные уже записали, то их терять нельзя от слова совсем

не записать и сообзить об этом клиенту - допустимо

Anatoliy
21.02.2017
11:14:14
Ну слейв по дефолту надо. Дампить такие объемы наверное смысла не имеет.

Nikita
21.02.2017
11:15:23
а если помер мастер, вручную переключаться на слейв?

Anatoliy
21.02.2017
11:15:37
Угу

Anatoliy
21.02.2017
11:15:51
Ну два сервака сразу не умрет)

Nikita
21.02.2017
11:15:57
люди хотят Master-Slave x 3 DC

Anatoliy
21.02.2017
11:15:58
А поднять 50ТБ+ из бекапа

то еще удовольствие

Google
Nikita
21.02.2017
11:16:22
максимальный даунтайм наверное с час

Anatoliy
21.02.2017
11:16:29
Этого более чем

чтобы переключится

Если целостность важна – то автоматика может неприятно удивить (я бы автофейловерам не доверял, наверняка кто-нибудь посоветует)

Kirill
21.02.2017
11:18:01
ок, зачем вы беретесь за то в чем вообще не разбираетесь, если им (заказчикам) важна сохранность данных, то какого, извините, черта вы туда лезете ?

Айтуар
21.02.2017
11:18:18
Ещё раз отпишусь - слейв не замена бекапа. Лишь отчасти если есть задержка большая между мастером и слейвом на пару часов.

Anatoliy
21.02.2017
11:18:55
Это какой надо иметь поток записи, чтобы таймлаг был в часах.

Kirill
21.02.2017
11:19:56
Это какой надо иметь поток записи, чтобы таймлаг был в часах.
видимо, имелось ввиду, ручками выставить задержку

Айтуар
21.02.2017
11:19:58
Все равно непрерывный бекап скушает место и ресурсы.

Darafei
21.02.2017
11:20:56
разбираются обычно к третьей потере базы

Айтуар
21.02.2017
11:21:11
разобраться ж можно;)
Может учиться начать не с 50 Тб баз?

Anatoliy
21.02.2017
11:23:05
Мастер+хот стендбай возможно будет не самым плохим вариантом, как мне кажется с таким объемом.

Из бекапа вы не поднимите этот объем за допустимый даунтайм

Nikita
21.02.2017
11:23:33
Может учиться начать не с 50 Тб баз?
ну так сначала MVP без ценных данных, тестирование всех кейсов

Страница 251 из 1062