
Dmitry
12.09.2017
13:21:06
Логгируйте события начала и конца отдельными записями в логе. Тогда не будет лишних апдейтов

Dmitriy
12.09.2017
13:21:22
иногда нет записи о начале, и прилетает сразу о конце сессии и наоборот
а данные важные очень

Google

Darafei
12.09.2017
13:23:56
пиши в таблицу то, что приходит
вдруг оно просто не в том порядке придёт, что ты делать будешь?

Dmitriy
12.09.2017
13:24:38
я сортировкой на входе все делаю
сессия минимум пятиминутная

Dmitry
12.09.2017
13:24:48
Тем более. В логе тип записи: начало сессии, конец сессии

Dmitriy
12.09.2017
13:25:18
тогда таблица сильно распухнет

Darafei
12.09.2017
13:25:22
почему?

Dmitry
12.09.2017
13:25:43
Вообще, но должно такого рассинхрона быть, что событие конца сессии логгируется раньше начала

Dmitriy
12.09.2017
13:25:56
и не будет
если потерялось, то сразу останется одна запись
в обоих типах записей время старта - константа
соотвественно будут 2 одинаковые записи с разницей только в timeend поле

Dmitry
12.09.2017
13:27:45

Google

Dmitriy
12.09.2017
13:29:47
В общем нужна реструктуризация
буду думать, как замутить проще
Спасибо, коллеги

Петр
12.09.2017
13:30:28
Много теряется? Тср не вариант?

Dmitriy
12.09.2017
13:30:55
процент сложно сказать

Dmitry
12.09.2017
13:31:02
Для начала индекс без условия по timeend. Уже должно полегчать

Dmitriy
12.09.2017
13:31:03
netflow не умеет tcp
тоже раздет его
с местом порешать нужно тогда
данных 2.5 ГБ а индексы будут раза в 3 больше

Dmitry
12.09.2017
13:32:42
Гб или Тб?

Dmitriy
12.09.2017
13:32:47
ГБ
мне места дали пока всео 50ГБ

Dmitry
12.09.2017
13:33:28
Ну должно хватит на индекс-то :)

Dmitriy
12.09.2017
13:33:41
данные хранить 5 лет
минимум
а 2.5 гб это за пару месяцев

Dmitry
12.09.2017
13:34:05
Это на 5 лет 50Гб дали? :)

Dmitriy
12.09.2017
13:34:15
пока да :(
тут я дубли то и убиваю

Google

Dmitry
12.09.2017
13:35:10
А 2,5 Гб за сколько набежало?

Петр
12.09.2017
13:35:13
Проще хранить так, как прилетает, ну партиции

Dmitriy
12.09.2017
13:35:27

Dmitry
12.09.2017
13:36:14
7,5 Гб в год. 37,5 Гб за 5 лет
Ну надо ещё 50Гб просить, чтоб на индексы и wal-логи хватало
Архивирование включено у вас?

Dmitriy
12.09.2017
13:37:06
wal хранится отдельно на системном диске, индексы там же

Dmitry
12.09.2017
13:37:43
А объем wal в сутки какой?

Dmitriy
12.09.2017
13:38:09

Dmitry
12.09.2017
13:38:39
Ээээ....
Т.е. wal вы не бэкапите?

Dmitriy
12.09.2017
13:39:12
не

Dmitry
12.09.2017
13:39:54
wal_keep_segments какой у вас стоит?

Dmitriy
12.09.2017
13:40:26
закоменчено в конфиге, значит дефолтный для 9.6

Sergey
12.09.2017
13:40:32
Может всё приходящее в небольшую табличку, а когда начало и окончание сессии в ней появится переносить уже одной строкой в постоянную таблицу?

Dmitry
12.09.2017
13:40:39
не
Т.е. на момент времени восстанавливаться не планируете?

Dmitriy
12.09.2017
13:40:56
нет)

Dmitry
12.09.2017
13:41:13
Сделайте
show wal_keep_segments
Ну ладно... Раз данные не критичны, то странно требование 5 лет хранить

Google

Dmitriy
12.09.2017
13:41:46

Sergey
12.09.2017
13:42:55
Вроде если 9.6 то там не wal_keep_segments

Darafei
12.09.2017
13:43:08
вам, может, ещё и реплику настроить? :)

Dmitry
12.09.2017
13:43:33
Да что вы... Реплика и бэкап для трусов

Darafei
12.09.2017
13:43:59
то-то же
не мешайте саботировать запись нетфлоу, а то сделаете тут надёжную систему, и не потерять ничего :)

Mike Chuguniy
12.09.2017
13:45:36
Надёжную систему?! Эммм...
да ещё и с защитой от потерь
Это ненаучная фантастика.

Dmitriy
12.09.2017
13:47:50
если по tcp снимать - это телнет на железку и парсить вывод команд
у железки проц дико нагружается
flow дешевле

Dmitry
12.09.2017
13:48:23

Alex
12.09.2017
13:48:31
а складывать в базу только агрегаты нынче не модно ?

Sergey
12.09.2017
13:49:06

Darafei
12.09.2017
13:49:11
модно, для этого pipelinedb придумали

Dmitry
12.09.2017
13:50:33

Darafei
12.09.2017
13:50:39
а зачем?


Dmitry
12.09.2017
13:55:54
https://www.postgresql.org/docs/9.4/static/wal-configuration.html
There will always be at least one WAL segment file, and will normally not be more than (2 + checkpoint_completion_target) * checkpoint_segments + 1 or checkpoint_segments + wal_keep_segments + 1 files. Each segment file is normally 16 MB (though this size can be altered when building the server). You can use this to estimate space requirements for WAL. Ordinarily, when old log segment files are no longer needed, they are recycled (that is, renamed to become future segments in the numbered sequence). If, due to a short-term peak of log output rate, there are more than 3 * checkpoint_segments + 1 segment files, the unneeded segment files will be deleted instead of recycled until the system gets back under this limit.
https://www.postgresql.org/docs/9.5/static/wal-configuration.html
Independently of max_wal_size, wal_keep_segments + 1 most recent WAL files are kept at all times. Also, if WAL archiving is used, old segments can not be removed or recycled until they are archived. If WAL archiving cannot keep up with the pace that WAL is generated, or if archive_command fails repeatedly, old WAL files will accumulate in pg_xlog until the situation is resolved. A slow or failed standby server that uses a replication slot will have the same effect (see Section 25.2.6).

Google

Sergey
12.09.2017
19:33:21
Здравствуйте подскажите чат по изучению английского языка

Ilya
12.09.2017
20:20:18

Denis
12.09.2017
22:42:52

Bandikoot
12.09.2017
22:56:01
пока тут время офигительных вопросы задают, тоже вкину:
как понять по списку процессов, из какого каталога запущен postgres?
на серваке 2 инсталляции и обе с недефолтным путём, версии одинаковые
есть процесс postmaster, путь к которому явно указан. можно ориентироваться на него, или этого недостаточно для однозначного определения?
хм, echo $PGDATA от юзера postgres выдаёт путь к той же инсталляции, что и postmaster

Denis
12.09.2017
23:02:33

Bandikoot
12.09.2017
23:03:33
увы, нет хтопа. зато есть аптайм почти в 2 года и околопанический страх даже дышать на это нечто

Алексей
12.09.2017
23:04:27
Думаю, достаточно. Остальные по PPID
Ну или по PID смотреть /proc/$PID/environ и искать там PGDATA


Bandikoot
12.09.2017
23:14:57
Ситуация чуууть-чуть более весёлая, на самом деле. Есть триггер в заббиксе, который через sh-ник дёргает psql с выводом count по определённой таблице с where по определённому полю.
Так вот там в параметрах подключения указан юзер postgres без пароля. Я проверил pg_hba.conf на обеих инсталляциях. Оба менялись последний раз аж в апреле. В одном подключения из локальной сети без пароля допускаются (local all postgres trust), в другом вроде как нет (строки с trust отсутствуют).
Ручной запуск sh-шника выдаёт psql: fe_sendauth: no password supplied. Запуск содержимого под пользователем, от которого пароль известен, даёт значение больше порогового.
Триггер загорелся чуть более суток назад.
+ несколько postgress: ... process и единственную строку с полным путём, соответствующую postmaster'у


Алексей
12.09.2017
23:17:56
"инсталляций" точно две? и обе запущены?

Denis
12.09.2017
23:17:59
а tree на сервере стоит?

Bandikoot
12.09.2017
23:18:38
это древний rhel

Алексей
12.09.2017
23:19:58
Заббикс на том же сервере?