@pgsql

Страница 351 из 1062
Sergey
01.06.2017
15:25:51








Google
Alex
01.06.2017
15:27:13
О_О

Sergey
01.06.2017
15:27:36
+)

Sergey
01.06.2017
15:29:24
ну да, так должно работать. но онни мне не нужны 0_о

Vladimir
01.06.2017
15:29:57
Обычно ORM их любят добавлять

Да и в будущем могут пригодиться

Sergey
01.06.2017
15:30:12
как изменить уже созданной базе локаль?
Собственно charset хранения данных в базе можно поменять только через export/import (возможно с потерей символов которые не отконвертируются в новый charset). А вот порядок сортировки можно менять отдельно от charset'а

Sergey
01.06.2017
15:30:21
у ORM него есть свой табл



Vladimir
01.06.2017
15:30:38
Ну это разные вещи

Sergey
01.06.2017
15:31:12
хм

Alex
01.06.2017
15:31:16
жаваскрипт осилел, как работает стек не осилел, эх

Google
Sergey
01.06.2017
15:31:59
осилю)

с вашей помощью

Alex
01.06.2017
16:09:20
в базе сделали truncate таблицы , инкрементального бекапа нету только вчерашний есть полный, есть возможность возобновиться на сегодняшную дату? может есть утилиты какието ?

помогите пожалуйста

Yuriy
01.06.2017
16:11:09


Alex
01.06.2017
16:13:03
Эх блин сегодня настраивал бармена и не успел

будем обновлятся с бумажек

Sergey
01.06.2017
16:18:38
Полный логический или физический?

Alex
01.06.2017
16:19:58
pg_dump

Sergey
01.06.2017
16:27:41
Это логический. С ним никак не получится.

С физическим (например pg_basebackup) при наличии пачки WAL-логов с момента бекапа можно было бы попробовать.

Аггей
01.06.2017
17:07:42
Интересно как работает truncate в pg

Я знаю как в oracle... В pg явно по другому

Судя по тому, что в pg его можно прервать - это не аналог drop/create table

Yuriy
01.06.2017
17:11:36
А я по челябински бекаплюсь autopostgresqlbackup. И оно мне каждую ночь все базы пакует в архив

Зато я 500% знаю что есть найтбэкап рабочий и не раз из него восстанавливался

Yuriy
01.06.2017
17:13:22
На отдельный лун улетают все базы ))))

И нормально

Google
Аггей
01.06.2017
17:14:18
Можно 100% быть уверенным, только когда бэкапы проверяются и находятся в нескольких географически разделенных местах

Yuriy
01.06.2017
17:14:36
Я их проверяю )))))))

Аггей
01.06.2017
17:14:53
У нас в проде ibm xiv между цод

И то как говорят медики 96%, что надежно

Yuriy
01.06.2017
17:15:07
Ну у вас серьезно

Мне и так хватает, база в 120-180гб нормально за ночь трамбуется

Петр
01.06.2017
17:17:08
если бы база была 200 гб, можно было бы в день несколько раз бэкапиться

Yuriy
01.06.2017
17:17:18
Можно 100% быть уверенным, только когда бэкапы проверяются и находятся в нескольких географически разделенных местах
Я их проверяю - раз в месяц стабильно происходит гусинная хуйня и приходиться восстанавливать

Аггей
01.06.2017
17:17:50
Я терял бд однажды как раз из-за того, что в архиве бэкапа не хватало несколько килобайт - а именно сжатие сделало его полностью непригодным

Аггей
01.06.2017
17:19:15
Архив даже распаковывался, но писал в самом конце... Чет я немного бит... Такому бэкапу уже доверия нет

Пришлось откатывать на 4 часа раньше

Yuriy
01.06.2017
17:19:52
Через нехватку места для архива я тоже проходил

Петр
01.06.2017
17:20:05
Я их проверяю - раз в месяц стабильно происходит гусинная хуйня и приходиться восстанавливать
не делаете бэкапов - у вас нет базы архивируете в одно место - очень похоже, что у вас ничего нет архивируете в два места - возможно у вас что-то есть

Айтуар
01.06.2017
17:21:13
Аггей
01.06.2017
17:21:35
Банальным ctr+c

Айтуар
01.06.2017
17:22:12
Банальным ctr+c
а drop table разве не также ? ))

Аггей
01.06.2017
17:22:40
Ну нужна реакция мангуста

Google
Айтуар
01.06.2017
17:24:38
видимо потому-что при дропе запись идёт сразу в системные таблицу что таблицы нету, а при truncate нужно удалить информацию про наличие у этой таблице данных, потом ещё сами файлики удалить(хотя этот момент в дропе то же должен быть).

В общем нужно курить исходники

Айтуар
01.06.2017
17:25:58
при дропе?

Аггей
01.06.2017
17:26:12
При truncate

Айтуар
01.06.2017
17:26:43
фиг знает

думаю при дропе в вал не пишет, а при транкейте пишет, вот он и дольше.

Admin
ERROR: S client not available

Петр
01.06.2017
17:27:44
Dmitry
01.06.2017
17:28:20
а кто же еще?

Петр
01.06.2017
17:34:55
Вакуум при транкейт не вызывается же

Dmitry
01.06.2017
17:44:35
https://doxygen.postgresql.org/tablecmds_8c.html#a948f04931e2e01214431547fd8277dd4

Вакуум при транкейт не вызывается же
а если транзакция не закомичена? ктоже кроме автовакуума это может сделать после коммита

только вроде чистятся буфера во время выполнения :)

Alexey
01.06.2017
17:53:16
создаётся новый пустой файл. старый не удаляется до комита. никакого вакуума

Dmitry
01.06.2017
17:57:48
старый файл удаляется процессом автовакуума

Alexey
01.06.2017
18:00:48
ну в исходниках написано именно про коммит

а также "Furthermore, it reclaims disk space immediately, rather than requiring a subsequent VACUUM operation." в мануале

Dmitry
01.06.2017
18:02:55
Google
Dmitry
01.06.2017
18:03:44
http://prntscr.com/ferfum

угу

Alexey
01.06.2017
18:04:23
так и я про то

в общем, это всё сводится к вызову RelationDropStorage(), которая добавляет relation в список PendingRelDelete с включенным флагом atCommit

забавно. В постгресе TRUNCATE transaction-safe, но не MVCC-safe. а в мускле наоборот

Dmitry
01.06.2017
18:09:00
оно его даже пересоздает чтоб удалить :)

Andrey
01.06.2017
18:11:29
А никто не пользовался https://azure.microsoft.com/en-us/pricing/details/postgresql/ ?
Мы проверяли. Производительность отсутствует. Может поправят со временем. Ну и нет многих средств управления. Лучше попробуйте нашу виртуалку там же. Немного ошиблись в процессе и в результате Стандарт опубликовали со встроенной поддержкой за деньги. Это поправим. Но там первый месяц бесплатно. Сейчас готовим Enterprise. За пару недель доделаем. Он побыстрее и пофункциональнее

Vladimir
01.06.2017
18:27:29
Спасибо

blkmrkt
01.06.2017
21:00:33
Denis
01.06.2017
21:13:21
чуть больше 1ТБ
То есть скорость заливки чуть более 30Гб в сутки. Ну или 1,25 Гб в час...Как-то долго от слова очень

blkmrkt
01.06.2017
21:14:28
То есть скорость заливки чуть более 30Гб в сутки. Ну или 1,25 Гб в час...Как-то долго от слова очень
просто в дампе идет полоса дубликатов, вот pgloader их и пробует по 1шт заливать

это я раньше без индексов заливал, занимало неделю. Теперь чтоб очистить от мусора, начал заливку поверх констрейнтов

Denis
01.06.2017
21:16:58
это я раньше без индексов заливал, занимало неделю. Теперь чтоб очистить от мусора, начал заливку поверх констрейнтов
А, если констрейнты, то да. А нет ли варианта создать пустую таблицу без ограничений, залить в неё за неделю, навесить индексы, почистить от мусора и подключить как дочернюю?

Darafei
01.06.2017
21:17:20
а sort -un по csv дампа не решит проблему?

blkmrkt
01.06.2017
21:17:50
А, если констрейнты, то да. А нет ли варианта создать пустую таблицу без ограничений, залить в неё за неделю, навесить индексы, почистить от мусора и подключить как дочернюю?
места на дисках как раз под 1 копию этого всего :( У меня сейчас задача очистить дамп от мусора, сдампить что есть на aws, и поставить нормальное железо

а sort -un по csv дампа не решит проблему?
тоже нет места чтоб на диске это держать, я и так пайпом с aws s3 cp это заливаю

Страница 351 из 1062