
Ilya
31.08.2017
14:02:49
В чятике троль.

Dmitry
31.08.2017
14:02:51
а как же crash safe
это как показывает практика :)

Yura
31.08.2017
14:03:30

Google

Dmitry
31.08.2017
14:04:04
да, но никто почему-то про fs не свпоминает, считается что она не потеряет данные :)

Yura
31.08.2017
14:04:05

Айтуар
31.08.2017
14:04:25

Dmitry
31.08.2017
14:04:49
пойду возьму что-то серьезное

Viktor
31.08.2017
14:05:31
добрый вечер) подскажите за уровни изоляции. Кейс такой: нужно апсертить строчку в таблице в порядке того как запросы приходят в базу, на консистентность пофигу (новые данные просто перезатирают старые). Сейчас юзаю Repeatable Read, но хотелось бы меньше нагружать движок, чтобы иметь меньший latency

Dmitry
31.08.2017
14:05:40

Yura
31.08.2017
14:06:40
Здесь я уже слегка профан, но мне казалось xfs и ext4 довольно сносно переносят reset , если их не пытаться ускорять.

Айтуар
31.08.2017
14:06:51

Viktor
31.08.2017
14:07:35
NoSQL ?
да, nosql подход по сути реализовать

Yura
31.08.2017
14:08:15

Айтуар
31.08.2017
14:08:16

Google

Viktor
31.08.2017
14:08:41
а так использую конечно

Yura
31.08.2017
14:09:20
т.е. update xxx_movie set view_count = view_count + 1 where id = ? в READ COMMITTED живёт нормально.

Vadim
31.08.2017
14:13:05
постгрес ломается при таком?

Dmitry
31.08.2017
14:13:41

Vadim
31.08.2017
14:14:00
а fs ломается при резете?

Dmitry
31.08.2017
14:14:06
ему для запуска нужно 7 файлов

Vadim
31.08.2017
14:14:16
это ж ваще слабое звено тогда

Viktor
31.08.2017
14:14:29
А нормально к pg держать кучу открытых подключений (если они непостоянно используются)? пишу свой пул

Айтуар
31.08.2017
14:14:45

Viktor
31.08.2017
14:15:04

Айтуар
31.08.2017
14:15:27

Viktor
31.08.2017
14:15:43
на сервере (Linux)

Айтуар
31.08.2017
14:16:06

Viktor
31.08.2017
14:17:07
база в AWS RDS, не уверен, что могу навернуть что-то кастомное не создавая собственный инстанс
но гляну, спасибо

Artem
31.08.2017
15:18:55
Привет. Есть большая таблица, в ней очень много записей(500гб), хочется удалить все старше N-дней. хотел открыть курсор, удалить 100000 записей сделать коммит и так в цикле, но на сколько я понял postgresql это сделать не получится (https://stackoverflow.com/questions/2305431/commit-in-postgresql-stored-procedure).
Посоветуйте решение проблемы (без create table / drop table / rename table)

Mikhail
31.08.2017
15:20:08
Классика

Google

Mikhail
31.08.2017
15:20:52
За раз скорее всего не получится, так как длинная транзакция и блокировки

Artem
31.08.2017
15:21:00
ну т.е. мне нужен какой-то аналог bulk delete

Mikhail
31.08.2017
15:21:12
Нет такого
Надо самому писать
На клиенте
А дальше все зависит от паттернов доступа к таблице и строчкам
И к базе в целом

Darafei
31.08.2017
15:22:55

Петр
31.08.2017
15:23:19

Artem
31.08.2017
15:23:21
в текущей базе.

Darafei
31.08.2017
15:24:12
если данных у тебя немного, возможно, проще сделать create table as (select * from table where date > now()-interval 'N days'); и попереименовывать-поиндексировать

Artem
31.08.2017
15:24:48
да я вкурсе, но я не хотел этого делать. т.к в нее постоянно идет вставка

Darafei
31.08.2017
15:25:26
или начать делать партиции, а текущую таблицу прицепить как последнюю и через N дней грохнуть

Artem
31.08.2017
15:25:29
ну в любом случае спасибо.

Darafei
31.08.2017
15:28:09
а вообще, delete from table where ctid in (select ctid from table where date > now()-interval '1 day' limit 1000)

Artem
31.08.2017
15:29:23
а и в цикл засунить ?