@pgsql

Страница 603 из 1062
yurc
14.12.2017
09:39:20
а как разрешить в 9.5?

Darafei
14.12.2017
09:39:34
никак, это цитата из ченжлога в 9.6

ставить 9.6

Andrey
14.12.2017
09:39:46
Аааа, с рекурсией там все плохо.

Google
Darafei
14.12.2017
09:40:32
вообще, если есть различие между разными версиями, первым делом надо читать ченжлог между ними :)

yurc
14.12.2017
09:40:45
спасибо, понятно)

странно только что через раз отрабатывает )

Darafei
14.12.2017
09:41:37
на то оно и чудо

а вообще уже 10 вышла

yurc
14.12.2017
09:44:00
и если закоментировать import json то тоже работает )

в продакшен можно 10 уже ставить?

стабильная?

Darafei
14.12.2017
09:48:25
у нас есть, не жалуемся

yurc
14.12.2017
09:48:55
спасибо!

Роман
14.12.2017
10:17:18
Можно как-то заставить постгрес писать лог в одну строку?

Роман
14.12.2017
10:41:10
Хочется немножечко боли?
Хочется собирать всё при помощи fluentd.

Google
Роман
14.12.2017
10:41:36
Yaroslav
14.12.2017
10:42:47
Аггей
14.12.2017
11:04:18
Чтобы statement log например выводил сразу и запрос и бинд переменные?

syslog_split_messages

Думаю вы об этом

Роман
14.12.2017
11:15:02
Что значит в 1 строку?
Сейчас у меня multiline. Логи пишутся в stderr - это хорошо, мне так и надо. Но плохо, что логи разбиваются на строки, которые, если начинаются с пробела, значит относятся к одному сообщению. Проблема в кривоватости fluentd - он не корректно обрабатывает поток. То есть, например, если у меня сообщение лога умещается в одну строку, fluentd ждёт (ждёт, не появится ли ещё строка, начинающаяся с пробела) и не отправляет эту строку до тех пор, пока не появляется другая строка, начинающаяся не с пробела - то есть, новое сообщение лога.

Egor
14.12.2017
11:21:54
Приветы, подскажите, из слейва же могу сделать реплику на другой слейв?

Сергей
14.12.2017
11:22:09
да

Egor
14.12.2017
11:24:33
И поднимается также как и мастер слейв?

Сергей
14.12.2017
11:24:59
Cascading Replication

ща

пытаюсь найти в доке

https://www.postgresql.org/docs/current/static/warm-standby.html#CASCADING-REPLICATION

Alexander
14.12.2017
11:26:34
Ребят всем привет. Куда можно копнуть, pg 9.6 за последние 12 часов база выросла на 18гб, и продолжает расти. Если отсортировать таблицы по размеру то она показывает что как раз все это место заняла одна таблица. Очищаю эту таблицу место не высвобождается. Потом узнаю что на самом деле все это пространство сьел pg toast. Но не могу понять где он это хранит что хранит и как почистить

Я совсем не дба, пытался сделать автовакум на эту таблицу но это ничего не изменило. Предполагаю ситуацию может поправить фулл автовакум?

Artem
14.12.2017
11:29:04
pgcompacttable в помощь) либо что нить подобное.

Vladimir
14.12.2017
11:29:06
вакуум фулл пересоздаст табличку, что в процессе всё заблокирует, естественно

Alexander
14.12.2017
11:29:29
или pg_repack

Vladimir
14.12.2017
11:29:44
но это не поможет прекратить рост таблицы

Google
Alexander
14.12.2017
11:30:33
А как узнать почему таблица растет?

Egor
14.12.2017
11:31:18
Сергей
14.12.2017
11:31:30
не знаю ? надо посмотреть в документацию ?

Alexander
14.12.2017
11:31:54
А как узнать почему таблица растет?
а что вы с ней делаете? Только пишете в нее?

Egor
14.12.2017
11:32:11
не знаю ? надо посмотреть в документацию ?
В доках нет такого, только с 9.3

Alexander
14.12.2017
11:32:17
а что вы с ней делаете? Только пишете в нее?
Да в том то и суть, что в эту таблицу ничего можно сказать не пишут.Добавляется может по 2 строки в час

Vladimir
14.12.2017
11:33:08
+

А не составляют ли большую часть таблицы dead tuples?

Alexander
14.12.2017
11:44:39
а как это узнать?

Mikhail
14.12.2017
11:44:56
и не висит ли траназакция не закрытая !!!

Sergey
14.12.2017
12:01:37
а как это узнать?
select * from pg_stat_user_tables

Айтуар
14.12.2017
12:03:08
У кого есть опыт работы с таблицей в которую будут писать около 10 млн записей в сутки? При этом ограничение хранения записей будет в 8 месяцев. И будет состоять наполовину из FK.

Darafei
14.12.2017
12:03:31
а какая с ней проблема?

Айтуар
14.12.2017
12:06:25
а какая с ней проблема?
Пока нет т.к. её ещё нет, разработка хочет сделать объединив данные из нескольких таблиц. Вот хотел уточнить есть ли какие ньюансы.

Darafei
14.12.2017
12:07:16
писать через копи, не апдейтить и не ошибаться при проектировании, потому что альтер будет болью

Айтуар
14.12.2017
12:07:23
У меня был опыт работы только с таблицами в несколько сотен мнл записей, и частотой записи не больше 1 млн в сутки.

Darafei
14.12.2017
12:08:55
а читать будут?

Айтуар
14.12.2017
12:09:10
Google
Айтуар
14.12.2017
12:44:45
Yaroslav
14.12.2017
12:46:24
9,6
Показали бы Вы \d этой таблицы... И какого вида нагрузка будет (что выбирается / как обновляется), примерно?

Айтуар
14.12.2017
12:50:12
по чтении/записи 5/1 минимум

Аггей
14.12.2017
13:04:17
8 месяцев... 10*30*8 ~ 2,5 млд записей... Есть внешние ключи на эту таблицу? Уникальные индексы?

Если есть - то секционировать не получится... и я не представляю на каком оборудовании это будет жизнеспособно.

Sergey
14.12.2017
13:07:06
Так чтобы ссылочная целостность была нужно только в пределах шарда?

Tolya
14.12.2017
13:08:19
у нас полтора миллиарда таблица в постгресе живет, довольно быстро работает проблемы есть с миграциями и обновлениями схемы (новое поле добавить и заполнить часов на 5)

Аггей
14.12.2017
13:08:31
Тут надо вникать в архитектуру конкретной бд

Tolya
14.12.2017
13:10:11
а поток постоянный или только в течении рабочего дня?

Konstantin
14.12.2017
13:10:14
Собственно наличие вторичных индексов - это основная проблема большой таблицы. Если их нет или они частичные - то тогда да: резать на части. Можно самим - в ручную. Можно воспользоваться pg_pathman-ом

Vadim
14.12.2017
13:16:02
У меня были таблицы 1,5 млрд строк в день. Но они писались через COPY. Были обычные таблицы которые в день росли на 30 млн строк, проблем не было особых.

Vadim
14.12.2017
13:17:14
Единственная проблема не зациклить счётчик

Те, которые росли на 30 млн в день были именно такие. Плюс индексов больше 10ка

Обслуживать их конечно неприятно, но если диски хорошие то жить можно. Если есть возможность секционировать то делайте сразу. У меня такой возможности не было. Хранилась финансовая информация

Tolya
14.12.2017
13:28:09
24/7
выходит около 100 строк в секунду если грузить батчами, то не должно быть никаких проблем со скоростью вставки

Google
Tolya
14.12.2017
13:28:41
а диски ссд?

если да, то на чтение тоже скорее всего проблем не будет никаких на нормальных запросах (селективных)

Айтуар
14.12.2017
13:29:15
а диски ссд?
в лучшем случае САС

Tolya
14.12.2017
13:30:07
если сас, то там смотря какой профиль при постоянных рандомных чтениях из разных мест у нас на сасах селекты около 2-3к строк выдавали

но тоже батчами

Yaroslav
14.12.2017
14:48:09
в лучшем случае САС
Я потому и спрашивал, какие выборки. Так схема таблицы-то есть у Вас?

Yaroslav
14.12.2017
14:55:35
На бумаге. Выше скриншот.
Не вижу. Так FK-то есть на неё?

Лаврентий
14.12.2017
15:02:26
как из даты получить усеченное значение без костылей типа обрезаний?

Например, из сегодняшней даты получить только год (2017)

Аггей
14.12.2017
15:03:46
EXTRACT year from?

Ну, Лаврентий, вы бы для приличия доку открыли

На великом и могучем есть

https://postgrespro.ru/docs/postgresql/10/functions-datetime.html

Лаврентий
14.12.2017
15:06:53
Спасибо

не знал, как искать

Вопрос сложнее: как-то без строковых функций можно из текущей даты получить 2017-12 ?

Страница 603 из 1062