
Amir
04.04.2018
08:20:37
но уже выяснили, на тестовом 16гб оперативки, на продуктиве 256гб
так что тут теперь надо просто пройти этот шаг, что бы остальное протестировать
до сих пор висит создание индекса в активе
хотя уже пол часа назад были отправлены команды на его отмену

Dmitry
04.04.2018
08:23:24
Я мог пропустить... Про maintenance_work_mem говорили уже? Какое значение параметра сейчас?

Amir
04.04.2018
08:24:01
до 14гб подняли, но то создание которое было, видит как 4гб

Google

Amir
04.04.2018
08:24:22
придется видимо килять прцесс(

Dmitry
04.04.2018
08:25:30
Я бы не стал. Можете БД поломать. Если тест - лучше дождитесь, если конечно перезалить тест вас не пугает

Amir
04.04.2018
08:30:36
не пугает, время еще есть
на создание индекса времени нет, но на накинуть из бекапа есть))))
можно даже смело откатываться до контрольной точки
тест)

Artem
04.04.2018
08:34:02
Коллеги, добрый день, кто нибудь реализовывал партиционирование на постгресе 10-й версии для заббикса?

Amir
04.04.2018
08:34:48
про партицирование в 10 тоже вопрос есть, там реализовано партицирование на таблицах на которые есть FK?

Аггей
04.04.2018
08:35:48

Amir
04.04.2018
08:35:57
ок, спасибо
сэкономили кучу времени)

Аггей
04.04.2018
08:36:16

Amir
04.04.2018
08:36:46
получается логику FK переводить на триггеры?

Google

Artem
04.04.2018
08:40:32

Аггей
04.04.2018
08:42:20


Ilia
04.04.2018
08:45:23
SELECT
DISTINCT orders.order_id,
CASE WHEN (orders.tip_id IS NOT NULL AND orders.customer_id = the_company())
THEN COALESCE(orders.tip_date, orders.current_req_for)
ELSE COALESCE(orders.current_jobdate, orders.current_req_for)
END as jobdate
FROM orders
WHERE orders.service_id NOT IN (7100,4100,7200,1000,8100)
ORDER BY jobdate DESC NULLS LAST, order_id DESC
LIMIT 100 OFFSET 0
как можно улучшить:
CASE WHEN (orders.tip_id IS NOT NULL AND orders.customer_id = the_company())
THEN COALESCE(orders.tip_date, orders.current_req_for)
ELSE COALESCE(orders.current_jobdate, orders.current_req_for)
END as jobdate
так как на нее уходит основное время запроса
По сути -то запрос идиотский полностью.
Дай мне все записи из таблицы, кроме некоторых немногих,
из них выдели только уникальные, потом отсортируй так так так так и так, и дай мне только 100
(вообще, хватило бы и 10и, но ладно уж, давай 100)


Artem
04.04.2018
08:53:08

Ilia
04.04.2018
08:53:42
Ещё и пагинация ...
Я бы сразу увольнял того, кто это написал.

Artem
04.04.2018
08:54:09

Dmitry
04.04.2018
08:59:48

Andy
04.04.2018
09:40:34
Добрый день!
У меня есть база на 400гб, репликация логическая идет уже больше 12 часов
На будущее мне – есть ли способы ее ускорить?

Yaroslav
04.04.2018
09:48:26

Аггей
04.04.2018
09:50:25
history сейчас 375 секций
Одной из целей было сокращение времени автовакуума
itemid 30295 штук. Изначально разбивал по 100 на секцию, но там происходили добавления/удаления и секций стало чуть больше

Yaroslav
04.04.2018
09:55:24
Понятно, спасибо.

Nikita
04.04.2018
10:54:34
всем привет, подскажите по параметру work_mem, сколько можно поставить, если:
1. много in и join в запросах
2. ОЗУ 132 Гб

Evgeniy
04.04.2018
10:59:10
ставь 256mb

Andrey
04.04.2018
11:03:49

Nikita
04.04.2018
11:06:05
Зависит от max_connections.
стоит pgbouncer, там 1000 коннектов разрешено, на самом постгресе тоже 1000, т.к. у нас в пике около 60к пользователей, работающих одновременно

Andrey
04.04.2018
11:06:58
Ну вот посчитаете. От ОЗУ отнимите shared_mem и поделите результат на max_connections (локальных, без учёта bouncer'а).

Google

Nikita
04.04.2018
11:10:17

Alexander
04.04.2018
11:11:56

Nikita
04.04.2018
11:17:25

Artem
04.04.2018
11:20:13
Ага

Voldemar
04.04.2018
11:42:49
привет, а подскажите пожалуйста есть ли какаянибудь компрессия при потоковой репликации через слоты репликации

Konstantin
04.04.2018
11:50:53
можно включить стандартную SSL компрессию
У меня есть патч, который вклбчает компрессию в libpq не зависимо от SSL

Sergey
04.04.2018
11:52:31

Andrey
04.04.2018
11:53:12

Voldemar
04.04.2018
11:53:37
ну как зачем. хочется уменьшить количество сетевого трафика. уменьшить тем самым лаг репликации, пусть и ценой нагрузки на проц

Konstantin
04.04.2018
11:53:38
нет

Andrey
04.04.2018
11:53:49
А зачем?
Ну, например, если канал слабый, чтобы трафик уменьшить.

Sergey
04.04.2018
11:55:04

Konstantin
04.04.2018
11:55:25
Я знаю одного товрища, который за счёт SSL компрессии раз в 10 разогнал систему, где клиент и сервер сильно гегорафически удалены, а результатами запросов является json.
Для логической репликации компрессия ещё более полезна.
Например zstd сжимает данные COPY передоваемый pgbench -i в 63 раза!

Voldemar
04.04.2018
11:56:25

Konstantin
04.04.2018
11:58:35
Как включать SSL - это лучше man почитать. SSLcompression вроде в Посгтресе стоит по умолчанию и значение у него булевское on/off.

Voldemar
04.04.2018
11:59:39

Sergey
04.04.2018
12:01:58

Voldemar
04.04.2018
12:08:55
ну так проскакивает. бывает и больше пишется. когда полный реиндекс вкупе с вакуумом

Mikhail
04.04.2018
12:12:49
IGNITEры есть? :)

Google

Voldemar
04.04.2018
13:15:42
а вообще как считаете оптимальнее организовать репликацию ? с помощью слотов репликации как более современного инструмента, или по старинке при помощи archive_command ?


Yevhenii
04.04.2018
13:35:07
Гуд Ивнинг, джентельмены и леди (если таковые имеются) :)
Есть у нас в Днепре, Украина, позиция Senior SQL DB developer.
Вилка по зп $2500 - 3500
Английский разговорный - Intermediate и выше.
Если нужны еще какие-то подробности, то напишите мне )
Вот такое описание самого проекта:
Project: The Customer is one of the world leader in factory solution provider the software for electronics manufactures (over 100,000 solutions installed). The customer’s enterprise software automates full circle related to production processes.
This software suite includes automation for:
· Manages information about production operations' required materials - including consumables and equipment resources.
· Meet regulatory requirements-whether they are the industries, customer's, or your own.
· Real-time monitoring factory performance of lines and machines.
· Production visualization system.
· Helps to make decisions on the acquisition, utilization and allocation of production resources to satisfy requirements efficiently.
· Assists with changeover setup, splicing, and parts exhaust ensuring the right components are loaded into the right place.
· Automatic line changeover management while integrating with other modules.
· Connectivity with the other business systems at factory such as MRP/ERP (SAP, Oracle, etc.)
The customer’s solutions works at all levels of production – Cloud, Enterprise, Facility and Machine levels.
Customer is building a next generation factory solution that would eventually replace the core of current product.
Since customer is in new product development mode, code quality and on time deliveries are very important.
Customer is not only are looking for good software developers, but also detailed process-oriented people for quality verification, as well as for providing analytical information. As a real-time system, performance is key aspect of a deliverables
Technical skills required:
DBA experience with PostgreSQL or Microsoft SQL Server (2008 / 2012 or greater) in a production environment
Experience configuring, implementing and supporting large highly available PostgreSQL Server environments
Experience with SQL Server troubleshooting; ability to proactively identify, troubleshoot and resolve live database systems issues.
· Strong working knowledge of query, index and DB I/O performance tuning, and Stored Procedures and SQL coding
· Deep knowledge of SQL and DBMS procedural language (pgPL/SQL, PL SQL, SQL PL, T-SQL, etc.)
· Database migration/ upgrade experience is highly desired.
· Ability to manage all DB maintenance plan activities including backups, indexing, integrity and consistency checks, etc.
· Excellent understanding of query execution plans.
Knowledge of disaster recovery principles and practices, including planning, testing, backup/ restore using disk-based backup solutions.
· Creates standards for SQL Server database administration that supports the use of optimal database server resources and performance.
· Understanding of data management quality assurance principles
· Strong knowledge of Windows server system 2012/2016
· Strong Linux user, experience with bash scripts
· Understanding of code versioning tools, such as Git
· MSc/MA in computer science, engineering, mathematics or relevant field
· Outstanding customer service skills
· Prioritizes tasks effectively to operate in a timely, accurate and professional manner.


Dmitry
04.04.2018
13:37:22

Voldemar
04.04.2018
13:39:22

Dmitry
04.04.2018
13:39:57
Зависает репликация. Логи не удаляются

Voldemar
04.04.2018
13:40:36
такого пока не было. но и идет она пока пару недель ).

Admin
ERROR: S client not available

Voldemar
04.04.2018
13:40:51
я вот думаю можно же эти два метода совместить?

Dmitry
04.04.2018
13:41:11
Обычно после свичовера проблема возникает. На 9.6 всё должно быть ок со слотами

Voldemar
04.04.2018
13:44:02
пока ни как не бэкапим. поставили задачу иметь горячий резерв, настроил через слоты. теперь вот думаю какие минусы, и что можно еще улучшить в плане надежности

Dmitry
04.04.2018
13:44:37
реплика <> бэкап. Надеюсь тут вопросов нет.

Voldemar
04.04.2018
13:45:01
бэкапы дампом делаются ежесуточные

Dmitry
04.04.2018
13:45:27
Т.е. вы готовы потерять данные между бекапами?

Voldemar
04.04.2018
13:45:29
ну и они как бы уже через сутки становятся неактуальны. потомучто терять день работы никто не захочет
нет не готовы)

Dmitry
04.04.2018
13:45:57
Тогда ваш бэкап бесполезен

Voldemar
04.04.2018
13:47:06
ну вот я и думаю. как это организовать по умному. еще на мастер добавить archive_command и лить валы кудато ?
помимо потоковой репликации

Dmitry
04.04.2018
13:48:33
archive_command может сохранять ваши валы в отдельное место в том числе для бэкапа. Чистка этого места, так же как и копирование оттуда в бэкап - это уже дело вашей обвязки, а не постгреса

Google

Voldemar
04.04.2018
13:49:00
понятно

Artem
04.04.2018
13:49:47

Voldemar
04.04.2018
13:50:25
а например когда слэйв который тянет данные с мастера со слотов, повышаю до мастера. то он может для восстановления эти валы из архива использовать?

Dmitry
04.04.2018
13:50:36
Если используются слоты, то логи будут браться оттуда для реплик
А вот с бэкапом у товарища проблемы

Voldemar
04.04.2018
13:51:10

Dmitry
04.04.2018
13:52:23
Да. И это правильно.

Voldemar
04.04.2018
13:52:59
А вот с бэкапом у товарища проблемы
ну вот посоветуйте тогда. лить на реплику еще и валы архивом? чтоб можно было на более ранний момент сделать восстановление при помощи рестор комманд ? когда реплику вдруг понадобилось мастером сделать.

Dmitry
04.04.2018
13:53:10
Вы можете на сервере бэкапа использовать утилиту pg_receivexlog и ей выгребать логи из отдельного слота специально под бэкап
К этому же слоту можете цепляться pg_basebackup Он умеет бекапить через стрим сразу в консистентную копию

Voldemar
04.04.2018
13:56:01
спасибо за наводку, буду изучать

Mikhail
04.04.2018
13:56:41
а в чём проблема-то?

Al
04.04.2018
13:58:58
доброго времени суток, у меня такая проблема , не могу сделать импорт с одного компа на другой БД , файл выгрузил, сам файл готов но вот нету экспорта. возможна ли это из за разности версий?
работал pgAdmin

Mikhail
04.04.2018
14:00:28
пардон, не туда посмотрел
импорт с одного на другой?
по человечески опишите ситуацию, без слов импорт и экспорт
ато у меня ощущение что вы всё перепутали