@pgsql

Страница 529 из 1062
Alexander
22.10.2017
09:57:34
gdb binary dump

потом bt

Denis
22.10.2017
09:59:16
потом bt
Ага, спасибо

Денис
22.10.2017
10:17:54
Привет. Есть такая возможность джоинить в отдельную строку? Например, мне нужно сделать выборку товаров и модификаций в одном запросе

Google
Денис
22.10.2017
10:18:48
из таблиц goods, goods_options. не все товары имеют модификации )

Rubén
22.10.2017
14:52:38
Hi all. Greetings from México ??

عاصم بن حارث
22.10.2017
14:55:49
Hi all. Greetings from México ??
اهلا وسهلا ??

Rubén
22.10.2017
14:56:44
عاصم بن حارث
22.10.2017
14:57:28
Hello there! ?
مرحباً ?

Yuriy
22.10.2017
14:57:45
Rubén
22.10.2017
14:58:12
Emojis are the UN translators of the 21st century ?

عاصم بن حارث
22.10.2017
15:00:55
Diskord
22.10.2017
19:41:39
Привет. Подкажите как можно логировать подключение и отключение пользователя от базы?

Igor
22.10.2017
19:42:21
https://www.postgresql.org/docs/9.6/static/runtime-config-logging.html

log_connections, log_disconnections. не?

Diskord
22.10.2017
19:44:03
спсибо гляну

Google
Артур
23.10.2017
08:10:57
какую лицензию указывать чтобы все могли свободно пользоваться?

не MIT же?

Mike Chuguniy
23.10.2017
08:11:43
какую лицензию указывать чтобы все могли свободно пользоваться?
Которая ограничивает закрытие кода. Т.е что-то GPL-подобное.

Артур
23.10.2017
08:12:14


Это?

Mike Chuguniy
23.10.2017
08:13:27
Я в тонкостях не разбирался. Мне самой GPL вполне себе достаточно.

Pavel
23.10.2017
08:16:00
https://tldrlegal.com/ Тут про все кратко изложено

Артур
23.10.2017
08:16:16
Спасибо

Alexey
23.10.2017
08:17:39
Игорь
23.10.2017
10:20:10
Вы третий раз описываете такой сценарий и не пытаетесь прочитать, что я написал, хотя я дал достаточно конкретное описание сбоя. Давайте по-другому. Один кластер из мастер-реплика-реплика может прикрывать несколько хапрокси или он всегда один и его (хапрокси) нельзя автоматом поднять новый.
Привет! Ага, я понял к чему вы клоните. То есть имеете ввиду, что есть несколько точек входа (и соответсвенно haproxy) и они прописаны у клиентов? Нет. Логически - точка входа одна. Но их несколько (по одной на каждый ДЦ). Поэтому ответ на ваш вопрос. Клиенты, которые остаются в мертвом ДЦ не получают трафик и не запишут в старый мастер, даже если он будет жить считаные секунды. Так как поступление трафика определяет динамическая маршрутизация

То есть для того чтобы максимально обезопасить сложные ситуации нужен комплекс мер. Один Patroni не поможет. Хотя если использовать его новую функцию watchdog, то скорее всего поможет (я не вникал), но это уже жесткие меры (вачдог вырубит полностью железный сервер)

Аггей
23.10.2017
10:23:39
Но обычно это применяется в виртуализации - нода залипает... не отпускает общий сторадж - ее жестко рубят

Egor
23.10.2017
12:11:47
#Работа #RoR #Удаленка Задача: Разработать бэкенд для таск-менеджера, в том числе API, вебсокеты и пуш-уведомления. Технология: RoR Формат: удаленка / парт тайм Вилка за проект: 80-120 (после обсуждения) Срок: 3-4 недели

Vladislav
23.10.2017
12:12:24
вам на фриланс

извращенцы блин

Pavel
23.10.2017
12:13:05
> Технология: RoR Почему бы лучше не сделать это на PL/PgSQL

Alex
23.10.2017
12:13:18
Postgres On Rails

crux
23.10.2017
12:14:59
Postgres On Rails
POR - начало многообещающее

Lev
23.10.2017
12:15:03
интересно, а писать что-нибудь такое в лог, чтобы прометеус сагрился и разослал алерты прокатит как push уведомления? =)

Google
Alexander_Galushko
23.10.2017
12:21:59
Знаю как в elasticsearch сделать через syslog-ng или td-agent и чтобы elasticalert сагрился и отослал в телек или на mail

Dmitry
23.10.2017
13:36:52
Добрый день. Подскажите за регламентные задания.. как они должны выполняться, переодичность, какие задания должны быть. У меня скрипты для бэка, потом для вакума и потом для переиндексации. (запускаются в такой последовательности.)

Nikolay
23.10.2017
15:06:54
Ткните, пожалуйста, как объявить тип (первый аргумент) для jsonb_populate_recordset?

Anatoliy
23.10.2017
15:46:01
select t.fiedl1::bigint, t.field2::int from jsonb_populate_recordset() as t(field1, field2)

попробуйте так

Ой, я кажется мимо. Вам надо row type для первого аргумента каждется

Anatoliy
23.10.2017
15:47:40
Вот выше верно

Nikolay
23.10.2017
15:47:54
А теперь вопрос: как изо всех строк таблицы передать одну колонку в эту функцию?

Anatoliy
23.10.2017
15:48:54
table.field во второй аргумент. 2й from или join для jsonb_populate_recordset наверное

Maksim
23.10.2017
15:51:33
null::<type or table>
а лучше было бы так: '<table>'::regclass или '<type>'::regtype

Nikolay
23.10.2017
16:34:27
там же передаётся тип и jsonb, что за таблица?
CREATE TABLE public.things ( props jsonb DEFAULT '[]'::jsonb ); в things.props лежит массив объектов с некоторыми параметрами: [ {"param1": true, "param2": 1.76, ...}, {"param1": false, "param2": 1.74, ...}, ... ] Вопрос теперь как во второй аргумент передавать: {"param1": false, "param2": 1.74, ...} select * from json_populate_recordset(null::myrowtype, ???things.props???) Можно ли как-то упростить вот это? : SELECT params.jb->'param1', params.jb->'param2' FROM ( WITH p AS ( select jsonb_array_elements(props) as jb from public.things ) SELECT * FROM p ) as params

а лучше было бы так: '<table>'::regclass или '<type>'::regtype
а инлайново это можно объявить (по аналогии с ... as x(a int, b text);?

Nikolay
23.10.2017
17:10:25
можно запрос select jsonb_array_elements(props) as jb from public.things заменить на select jsonb_populate_recordset(null::myrowtype, props) as jb from public.things и там дальше поиграться с конкатенацией результирующих таблиц
неожиданно! несколько раз получал ошибку, мол subquery выдаёт слишком много записей в select и еще ERROR: set-valued function called in context that cannot accept a set, но то, что вы посоветовали сработало. Спасибо

Bohdan
23.10.2017
18:02:38
Приветствую! Пишу CRUD сервер для приложения, там ОРМ юзаю. Есть модель Phone с полями number и countryId. К этой модели есть уникальный индекс с этими двумя полями. Вопрос - какого хрена он не срабатывает?

Так ОРМ создает индекс, вроде все хорошо CREATE INDEX "ind_9300465bb73ea0f342892a06704" ON "phone"("countryId","number")

23/10/2017-21:03:03 - debug - executing query: START TRANSACTION 23/10/2017-21:03:03 - debug - executing query: INSERT INTO "phone"("countryId", "number", "createAt", "updateAt") VALUES ($1,$2,$3,$4) RETURNING "id" -- PARAMETERS: [1,970000000,"2017-10-23 18:03:03","2017-10-23 18:03:03"] 23/10/2017-21:03:03 - debug - executing query: COMMIT 23/10/2017-21:03:05 - debug - executing query: START TRANSACTION 23/10/2017-21:03:05 - debug - executing query: INSERT INTO "phone"("countryId", "number", "createAt", "updateAt") VALUES ($1,$2,$3,$4) RETURNING "id" -- PARAMETERS: [1,970000000,"2017-10-23 18:03:05","2017-10-23 18:03:05"] 23/10/2017-21:03:05 - debug - executing query: COMMIT А так делает вставку. Какого фига индекс блин не срабатывает

Google
Сергей
23.10.2017
18:05:03
Так ты индекс создал, а не констрейнс

ros
23.10.2017
18:05:10
видимо, индекс не уникальный

Bohdan
23.10.2017
18:07:25
CREATE UNIQUE INDEX Бляха, забыл что так создается Вот так ОРМ и подсунула западло)

Аггей
23.10.2017
18:38:32
Подозреваю, что орм и уникальные умеет. Будете ближе знать инструмент - тоже хорошо

Bohdan
23.10.2017
19:06:22
Подозреваю, что орм и уникальные умеет. Будете ближе знать инструмент - тоже хорошо
та там с параметрами косяки у них, кажется. Дал имя этому индексу и ОРМ сделала этот индекс уникальным

Max
23.10.2017
19:07:21
у них это у кого

не с того конца начали по-моему. Что за язык во-первых

какая библиотека, которая orm реализует

Bohdan
23.10.2017
19:20:03
Max
23.10.2017
19:20:49
не, по ноде не подскажу )

Bohdan
23.10.2017
19:21:55
не, по ноде не подскажу )
справился уже :) Благодарю за помощь!

Rubén
23.10.2017
20:27:12
? I don't speak Russian. C ya guys

Arthur
23.10.2017
20:32:12
There is english chat https://t.me/postgreschat

??Suffer
24.10.2017
01:40:52
Всем привет

BEGIN; DECLARE cursor1 NO SCROLL CURSOR FOR SELECT ...8 GB in ram...; FETCH FORWARD 1000 FROM cursor1; COMMIT;

Есть у меня такой запрос который занимает 8GB в памяти процеса postgres и держит её пока я не выберу все данные и не закрою курсор. Почему postgres не освобождает память записей которые я уже забрал?

Можно как-то сделать что-бы он освобождал память? Или хотя-бы переиспользовал записи которые есть в памяти для паралельного запроса с похожими данными?

В прошлом запросе у меня есть условия в блоке WHERE

А если вот так делать BEGIN; DECLARE cursor1 NO SCROLL CURSOR FOR SELECT * from big_table; FETCH FORWARD 1000 FROM cursor1; COMMIT; то память почти не используется

Я хочу что-бы также было и в первом варианте ;_;

Google
Yury
24.10.2017
02:11:48
а разве курсор нельзя в обратную сторону двинуть?

??Suffer
24.10.2017
02:13:15
Зачем?

Мне не надо

Я хочу что-бы меньше памяти использовалось

Я покрутил настройки базы данных что-бы постгрес меньше памяти использовал и оно начало писать на диск

FETCH 1000 FROM cursor1; Time: 1.740s (a second)

Почему постгрес на может брать данные з диска перед тем как отдавать?

Страница 529 из 1062