
Denis
28.03.2018
09:41:38

Darafei
28.03.2018
09:42:18
я не знаю, у меня за тикеты бесплатная лицензия, что я делаю не так? :)

Denis
28.03.2018
09:43:04
Не рассказываешь мне, как получить за тикеты бесплатную лицензию)

Mike Chuguniy
28.03.2018
09:50:06

Google

Mike Chuguniy
28.03.2018
09:51:21

Darafei
28.03.2018
10:09:59
тебе из тактических или из стратегических соображений?
тактически - совершенно не нужно, и можно взять оракл по месту, если в нём что-то есть, а в постгресе нет

Murrain
28.03.2018
10:31:16

Mike Chuguniy
28.03.2018
10:34:18

Pavel
28.03.2018
10:41:17

Илья
28.03.2018
10:54:37
кстати, ребят, кто-нибудь уже щупал dbForge?
Чего его щупать? До функционала for MySQL ему ещё далеко (построителя схем, например, нет). Запросы всякие ваять удобно, подброс и форматирование работает. Как сделать коннект сразу на все базы на серваке - я так и не понял (менять активный коннект не даёт). Бобёр в этом плане гораздо удобнее. Хотя может и dbForge допилят.

Alex
28.03.2018
10:55:32

Илья
28.03.2018
10:56:09

Nikita
28.03.2018
11:06:41
всем привет. Пытаюсь обновиться через pg_upgrade с 9.5 до 10, но не хватает библиотек https://pastebin.com/UBJMfEKg . Как пофиксить?

Ildar
28.03.2018
11:07:59
заинсталлить экстеншены
если постгрес из пакета ставили, то контрибы идут зачастую отдельным пакетом

Nikita
28.03.2018
11:13:43

Google

Max
28.03.2018
13:23:39
Добрый день. Подскажите есть ли возможность узнать номер текущей строки при использовании COPY. Выполняю импорт из csv в таблицу большого количества данных, хотелось бы видеть статус выполнения

Maxim
28.03.2018
13:31:11
что быстрее для проверки наличия подстроки: LIKE '%substr%' или strpos('substr', col) > 0 ?

Lev
28.03.2018
13:35:32

Dmitry
28.03.2018
13:36:11

Lev
28.03.2018
13:36:57
транзакция откатится со всеми данными

Max
28.03.2018
13:37:13

Dmitry
28.03.2018
13:37:20
разрыв pipe - не ошибка

Max
28.03.2018
13:38:32
впринципе можно в тригере наверное писать куда либо сколько строк обработано, перед запуском обнулять

Alex
28.03.2018
13:41:35

Maxim
28.03.2018
13:45:08
можно и потестить, но вдруг кто-то знает ответ. я вот уже понял, что могу решить проблему по-другому, так что и тестить особо не хочу

Nikita
28.03.2018
19:24:56
можно ли прервать vacuum analyze во время его работы?

Александр
28.03.2018
19:26:34
Зачем? Цпу грузит? Он таблицу без full не лочит же

Nikita
28.03.2018
19:27:46

Mikhail
28.03.2018
19:27:53
так то можно, если сомнения, то вот ссылка:
https://www.postgresql.org/message-id/12917.1272651126%40sss.pgh.pa.us

Nikita
28.03.2018
19:28:00
а таблиц больше 500

Mikhail
28.03.2018
19:28:24
важно понимать зачем это делаешь :)

Nikita
28.03.2018
19:30:21

Александр
28.03.2018
19:33:47
Так проблема то какая? Чем мешает? Или ты руками запустил для всей базы?)

Mikhail
28.03.2018
19:33:53
Наксолько понмю можно, но если убить, то позже он всеравно запустится. Как отметил выше Александр, если он не лочит и не создает проблем в данный момент для пользователей, то стоит дождаться выполнения и подумать об оптимизации.

Google

Nikita
28.03.2018
19:40:47

Mikhail
28.03.2018
19:41:32
а автовакум настроен?

Nikita
28.03.2018
19:42:25

Mikhail
28.03.2018
19:44:39
не откладывайте оптимизацию автовакума)) вот неплохая статья с общими сведениями: https://blog.2ndquadrant.com/autovacuum-tuning-basics/

Nikita
28.03.2018
19:49:01

Taras ?
28.03.2018
23:13:03
рребят, научите бэкапы правильно готовить?
и переносить инфу с сервера на сервер, экспорт-импорт
грохнул прод... ну как грохнул — потерял айдишки при переносе, аккаунты перемешались, хорошо что аккаунтов не сильно много и прод пока толком не начал расти, и старый сервер еще не снесли

Evgeniy
28.03.2018
23:15:15
это тебе к ребятам из гитлаба

Taras ?
28.03.2018
23:17:10
"id" bigserial NOT NULL,
потерялись значения... записи были начиная не с 1, и в общем в файл скинулись в рандом порядке
и еще ltree экспортилось без кавычек, типу 2.4.7 а не '2.4.7'
короч больше экспортировать с dbeaver ce не буду ( или надеюсь что исправлят )
подскажите пожалуйста как бэкапы делать?
может у кого есть полезный гайд для моего случая?
спасибо

Evgeniy
28.03.2018
23:24:10
pg_dump

Evgeniy
28.03.2018
23:24:32
в кастом формате
и к нему pg_restore
но это если тебе не подливать данные, а полностью перезаливать один в один
судя по тому что ты делал и получил, ты выгрузил в цсв чтото и подливал кудато


Mike Chuguniy
29.03.2018
04:21:23
рребят, научите бэкапы правильно готовить?
https://postgrespro.ru/education/courses
Курс ДБА1
Вкратце: pg_dump(all) - логическая копия, создаёт дамп базы в виде SQL-файла (кастомный формат - это для сильных духом, его всё равно надо будет прогонять через pg_restore, которая в итоге всё равно выдаст SQL)
pg_basebackup - основное средство создания бекапов на данный момент, работает по через подключение для репликации, вытягивая содержимое PGDATA, так что если конфиги у вас где-то в другом месте, как они перенесутся и перенесутся ли вообще - вопрос далеко не праздный;
pg_start_backup(<label>) && <copy of iinstance files> && pg_stop_backup() - создание резервной копии путём копирования файлов экземпляра.
После pg_dump поднять реплику из полученной копии, скажем так, весьма проблематично. А если честно, то такие методы мне неизвестны. Два других способа позволяют организовать реплику.

Nikita
29.03.2018
04:23:14
рекомендую pg_basebackup :)

Mike Chuguniy
29.03.2018
04:26:28
Ещё надо понимать, что физическое резервирование, это которое не pg_dump, перед началом копирования вызывает создание checkpoint-а, которое может затянуться на совсем неопределённое время, в зависимости от размера базы и нагрузки на вставку, изменение, удаление данных
Несколько часов я видел.

Google

Nikita
29.03.2018
04:32:10

Mike Chuguniy
29.03.2018
04:32:25
Да
Сначала чекпойнт, потому уже копирование.

Nikita
29.03.2018
04:34:00
я переносил небольшую базу в 1.5 Тб с нагрузкой, может мне просто повезло и san-ы были быстрые, но заняло это минут 20
но чекпоинт может сказаться, да

Mike Chuguniy
29.03.2018
04:36:39
1,5 TB?! 20 минут?! Не верю!

Admin
ERROR: S client not available

Voldemar
29.03.2018
04:55:08
а если включить на мастере сжатие валов то на слейве надо будет делать по новой basebackup?

Artem
29.03.2018
04:55:25
Зачем?

Voldemar
29.03.2018
04:56:01
достаточно перезапустить слэйв?

Artem
29.03.2018
05:00:58
По моему достаточно поправить конфигурации на слейве

Voldemar
29.03.2018
05:03:13
а если он будет в несогласованном состоянии в момент изменения конфига на мастере?

Аггей
29.03.2018
05:26:42
Вообще вы достигли теоретического предела 10 гигабитной сети )
Тут только flash

Nikita
29.03.2018
05:46:57
Flash?
не могу подсказать, не занимаюсь именно железными серверами, но san там какой-то крутой, минут 20-25 переносилось, да

theparadoxer02
29.03.2018
06:52:10
any english postgres group ?

Evgenij
29.03.2018
06:56:32
Всем привет. Можно ли както при docker build запустить pg_restore "нужный дамп", в данный момент у меня ошибка в том что pg_restore не может подключиться к postgresql
Dockerfile:
FROM postgres:10.3
COPY init.sql /docker-entrypoint-initdb.d/

Darafei
29.03.2018
06:57:50

Alex
29.03.2018
07:55:40
Я со своими любимыми странными вопросами. А какой максимальный объем данных можно передать в хранимую процедуру параметром ?

Google

Darafei
29.03.2018
07:56:12
одним? гигабайт
или не больше, чем может хранить твой тип данных
напоролись, что в jsonb может не влезть больше 256 мегабайт

Alex
29.03.2018
07:57:37
Есть подозрения что не всегда 1Гбайт.

Darafei
29.03.2018
07:58:00
больше, или меньше?

Alex
29.03.2018
07:58:09
Меньше

Sergey
29.03.2018
08:00:14

Darafei
29.03.2018
08:00:43
да, я считаю аналитику постгресом, потому что в нём есть постгис, а в кликхаусе нет

Kitsu
29.03.2018
08:06:14

Darafei
29.03.2018
08:06:57
в обычный текстовый json (не jsonb) влезает 1 гигабайт текста
copy в него, а потом json_array_elements(arr)::jsonb

Mikhail
29.03.2018
11:50:04
Напоролся на странный эффект
забикс пишет в таблу данные, а попадают в результате не все
сразу говорю, что таблица шардированная и пишет через триггер

Yaroslav
29.03.2018
11:52:30

Mikhail
29.03.2018
11:52:43
нее