
yurc
14.12.2017
09:39:20
а как разрешить в 9.5?

Darafei
14.12.2017
09:39:34
никак, это цитата из ченжлога в 9.6
ставить 9.6

Andrey
14.12.2017
09:39:46
Аааа, с рекурсией там все плохо.

Google

Darafei
14.12.2017
09:40:32
вообще, если есть различие между разными версиями, первым делом надо читать ченжлог между ними :)

yurc
14.12.2017
09:40:45
спасибо, понятно)
странно только что через раз отрабатывает )

Darafei
14.12.2017
09:41:37
на то оно и чудо
а вообще уже 10 вышла

yurc
14.12.2017
09:44:00
и если закоментировать import json
то тоже работает )
в продакшен можно 10 уже ставить?
стабильная?

Darafei
14.12.2017
09:48:25
у нас есть, не жалуемся

yurc
14.12.2017
09:48:55
спасибо!

Роман
14.12.2017
10:17:18
Можно как-то заставить постгрес писать лог в одну строку?

Alex
14.12.2017
10:29:40

Роман
14.12.2017
10:41:10

Google

Роман
14.12.2017
10:41:36

Yaroslav
14.12.2017
10:42:47

Аггей
14.12.2017
11:04:18
Чтобы statement log например выводил сразу и запрос и бинд переменные?
syslog_split_messages
Думаю вы об этом

Роман
14.12.2017
11:15:02
Что значит в 1 строку?
Сейчас у меня multiline. Логи пишутся в stderr - это хорошо, мне так и надо. Но плохо, что логи разбиваются на строки, которые, если начинаются с пробела, значит относятся к одному сообщению.
Проблема в кривоватости fluentd - он не корректно обрабатывает поток. То есть, например, если у меня сообщение лога умещается в одну строку, fluentd ждёт (ждёт, не появится ли ещё строка, начинающаяся с пробела) и не отправляет эту строку до тех пор, пока не появляется другая строка, начинающаяся не с пробела - то есть, новое сообщение лога.

Egor
14.12.2017
11:21:54
Приветы, подскажите, из слейва же могу сделать реплику на другой слейв?

Сергей
14.12.2017
11:22:09
да

Egor
14.12.2017
11:24:33
И поднимается также как и мастер слейв?

Сергей
14.12.2017
11:24:59
Cascading Replication
ща
пытаюсь найти в доке
https://www.postgresql.org/docs/current/static/warm-standby.html#CASCADING-REPLICATION

Alexander
14.12.2017
11:26:34
Ребят всем привет. Куда можно копнуть, pg 9.6 за последние 12 часов база выросла на 18гб, и продолжает расти. Если отсортировать таблицы по размеру то она показывает что как раз все это место заняла одна таблица. Очищаю эту таблицу место не высвобождается. Потом узнаю что на самом деле все это пространство сьел pg toast. Но не могу понять где он это хранит что хранит и как почистить
Я совсем не дба, пытался сделать автовакум на эту таблицу но это ничего не изменило. Предполагаю ситуацию может поправить фулл автовакум?

Artem
14.12.2017
11:29:04
pgcompacttable в помощь) либо что нить подобное.

Vladimir
14.12.2017
11:29:06
вакуум фулл пересоздаст табличку, что в процессе всё заблокирует, естественно

Alexander
14.12.2017
11:29:29
или pg_repack

Vladimir
14.12.2017
11:29:44
но это не поможет прекратить рост таблицы

Google

Alexander
14.12.2017
11:30:33
А как узнать почему таблица растет?

Egor
14.12.2017
11:31:18

Сергей
14.12.2017
11:31:30
не знаю ? надо посмотреть в документацию ?

Alexander
14.12.2017
11:31:54

Egor
14.12.2017
11:32:11

Alexander
14.12.2017
11:32:17

Vadim
14.12.2017
11:32:58

Vladimir
14.12.2017
11:33:08
+
А не составляют ли большую часть таблицы dead tuples?

Alexander
14.12.2017
11:44:39
а как это узнать?

Mikhail
14.12.2017
11:44:56
и не висит ли траназакция не закрытая !!!

Sergey
14.12.2017
12:01:37

Айтуар
14.12.2017
12:03:08
У кого есть опыт работы с таблицей в которую будут писать около 10 млн записей в сутки?
При этом ограничение хранения записей будет в 8 месяцев. И будет состоять наполовину из FK.

Darafei
14.12.2017
12:03:31
а какая с ней проблема?

Айтуар
14.12.2017
12:06:25
а какая с ней проблема?
Пока нет т.к. её ещё нет, разработка хочет сделать объединив данные из нескольких таблиц. Вот хотел уточнить есть ли какие ньюансы.

Darafei
14.12.2017
12:07:16
писать через копи, не апдейтить и не ошибаться при проектировании, потому что альтер будет болью

Айтуар
14.12.2017
12:07:23
У меня был опыт работы только с таблицами в несколько сотен мнл записей, и частотой записи не больше 1 млн в сутки.

Darafei
14.12.2017
12:08:55
а читать будут?

Айтуар
14.12.2017
12:09:10

Google

Yaroslav
14.12.2017
12:41:31

Айтуар
14.12.2017
12:44:45

Yaroslav
14.12.2017
12:46:24
9,6
Показали бы Вы \d этой таблицы...
И какого вида нагрузка будет (что выбирается / как обновляется), примерно?

Айтуар
14.12.2017
12:50:12
по чтении/записи 5/1 минимум

Аггей
14.12.2017
13:04:17
8 месяцев... 10*30*8 ~ 2,5 млд записей... Есть внешние ключи на эту таблицу? Уникальные индексы?
Если есть - то секционировать не получится... и я не представляю на каком оборудовании это будет жизнеспособно.

Sergey
14.12.2017
13:07:06
Так чтобы ссылочная целостность была нужно только в пределах шарда?

Tolya
14.12.2017
13:08:19
у нас полтора миллиарда таблица в постгресе живет, довольно быстро работает
проблемы есть с миграциями и обновлениями схемы (новое поле добавить и заполнить часов на 5)

Аггей
14.12.2017
13:08:31
Тут надо вникать в архитектуру конкретной бд

Tolya
14.12.2017
13:10:11
а поток постоянный или только в течении рабочего дня?

Konstantin
14.12.2017
13:10:14
Собственно наличие вторичных индексов - это основная проблема большой таблицы. Если их нет или они частичные - то тогда да: резать на части. Можно самим - в ручную. Можно воспользоваться pg_pathman-ом

Айтуар
14.12.2017
13:13:29

Vadim
14.12.2017
13:16:02
У меня были таблицы 1,5 млрд строк в день. Но они писались через COPY. Были обычные таблицы которые в день росли на 30 млн строк, проблем не было особых.

Айтуар
14.12.2017
13:17:13

Vadim
14.12.2017
13:17:14
Единственная проблема не зациклить счётчик
Те, которые росли на 30 млн в день были именно такие. Плюс индексов больше 10ка
Обслуживать их конечно неприятно, но если диски хорошие то жить можно. Если есть возможность секционировать то делайте сразу. У меня такой возможности не было. Хранилась финансовая информация

Tolya
14.12.2017
13:28:09
24/7
выходит около 100 строк в секунду
если грузить батчами, то не должно быть никаких проблем со скоростью вставки

Google

Tolya
14.12.2017
13:28:41
а диски ссд?
если да, то на чтение тоже скорее всего проблем не будет никаких на нормальных запросах (селективных)

Айтуар
14.12.2017
13:29:15

Tolya
14.12.2017
13:30:07
если сас, то там смотря какой профиль
при постоянных рандомных чтениях из разных мест у нас на сасах селекты около 2-3к строк выдавали
но тоже батчами

Yaroslav
14.12.2017
14:48:09

Айтуар
14.12.2017
14:49:12

Yaroslav
14.12.2017
14:55:35

Лаврентий
14.12.2017
15:02:26
как из даты получить усеченное значение без костылей типа обрезаний?
Например, из сегодняшней даты получить только год (2017)

Аггей
14.12.2017
15:03:46
EXTRACT year from?
Ну, Лаврентий, вы бы для приличия доку открыли
На великом и могучем есть
https://postgrespro.ru/docs/postgresql/10/functions-datetime.html

Лаврентий
14.12.2017
15:06:53
Спасибо
не знал, как искать
Вопрос сложнее: как-то без строковых функций можно из текущей даты получить 2017-12 ?

Darafei
14.12.2017
15:19:37