
Alexey
09.01.2018
14:42:39
а некоторые недоумевают: "и зачем нам эти stored procedures?". а вот затем

Petr
09.01.2018
15:04:33
ребята, кто-то из вас по-серьезному использовал хеш индексы?)
http://rhaas.blogspot.ru/2017/09/postgresqls-hash-indexes-are-now-cool.html?m=1

Dmitry
09.01.2018
15:17:17
а вообще вся ситуация с hash-индексами в pg - это пример того что "ненужно" превратилось в "кто-то допилил" и теперь "нужно" и "cool"

Google

Alex
09.01.2018
15:19:56

Dmitry
09.01.2018
15:20:44
ну че как маленький, просто если индекс занимает >= 2 сегмента по гигабайту - удали последний сегмент и получишь это на любом индексе :)

Alex
09.01.2018
15:33:36

Сергей
09.01.2018
15:51:49

Alexander
09.01.2018
17:26:18
Товарищи, а если скопировать содержимое папки postgresql и перебросить его на идентичный сервер (та же версия ОС и postgreSQL), то он заведется?
Да, я понимаю, что это не самый лучший способ делать восстановление, но как быть, если бекапов нет? ?

Arthur
09.01.2018
17:31:47

Alexander
09.01.2018
17:32:20
Да, там data

Andrey
09.01.2018
18:09:35

Alexander
09.01.2018
18:13:52
Хорошо, спасибо. Вскоре узнаю правильный ответ

Evgeniy
09.01.2018
18:45:27
@ParadoxTelegram, пробовал майрокс?

Petr
10.01.2018
01:37:34
@vadvmkn спасибо за информацию

Google

Petr
10.01.2018
01:38:02

Yura
10.01.2018
05:00:29

Petr
10.01.2018
06:07:41
Привлекает тот факт, что хеш индекс по определению вставляет за O(1)

Gleb
10.01.2018
06:49:38
Подскажите пожалуйста по pgconf в Москве
5го мастерклассы 6-7го доклады?

Sergey
10.01.2018
07:21:57

Ivan
10.01.2018
08:17:33
7 мастер-классы.

Yaroslav
10.01.2018
11:58:25

Petr
10.01.2018
11:59:08

Yaroslav
10.01.2018
12:04:57
по определению average ?
Это _амортизированное_ среднее. Т.е. на практике "константа" в "реальном" среднем O(1) может тихо "плыть" в сторону увеличения (на Ваших данных). ;)

Petr
10.01.2018
12:06:38
смотрел бенчмарки по вставке по сравнению с btree и выглядят они неплохо
тем не менее, в ближайшее время так и не нашел хорошего применения hash index в своей работе

Yaroslav
10.01.2018
12:12:46

Petr
10.01.2018
12:13:27
:)

Pavel
10.01.2018
14:35:06
А если найду?

Роман
10.01.2018
14:44:35
Сначала найдете URL

Evgeniy
10.01.2018
14:49:52
лайк

Vladimir
10.01.2018
15:02:32
пацанские сайтики ...

Petr
10.01.2018
16:27:55
?
мутная схема

Nikolay
10.01.2018
18:16:01
с Ильёй помучали только что Брюса вопросами. На его родном языке, так что сорри что без перевода. Но вышло интересно, про то, куда постгрес движется и как он видит текущие вызовы https://www.youtube.com/watch?v=YMlP_Qgebck

Борис
10.01.2018
18:20:07

Nikolay
10.01.2018
18:23:59
спасибо за отзыв. А я как обычно забыл в конце сказать "подписывайтесь на наш канал", так что тут говорю -- подписывайтесь https://www.youtube.com/playlist?list=PL6sRAkPwcKNnwScnpKomNXechZQ3WZe1j
Ближайший ивент — с Максом Богуком. Это будет нечто. Австралия-Калифорния-Германия-Россия. Я уже подписался на то чтобы делать это в полночь по калифорнийскому времени, так что заранее сорри если буду засыпать, хотя Макс обычно такое рассказывает про продвинутый SQL, что вряд ли уснёшь ?
https://www.meetup.com/postgresqlrussia/events/246602821/

Google

Mihail
10.01.2018
20:41:47
Может кто подскажет, как в jsonb заменить key при условии что он вложен в другой и что есть другие key с таким же названием но их менять не надо. Например:
{a:{b:value, c:value}, k{c:value, h:value}}
Мне надо чтобы 'с' в первом случае стало 'p'.
Есть replace с regex но осталось только регулярку придумать а с этим не так хорошо

Andrey
11.01.2018
05:31:38

Mihail
11.01.2018
06:52:06

Andrey
11.01.2018
06:54:25
create or replace
function update_json(s json) as $$
import json
data = json.loads(s)
data['a']['c'] = 'p'
return json.dumps(data)
$$ languagle plpythonu;
Потом делаете update table set foo = update_json(foo);
Функцию я не проверял. написал на скорую руку, но принцип, я думаю, ясен.

Vladimir
11.01.2018
06:58:40
Есть метод jsonb_set -стандартный
https://www.postgresql.org/docs/9.6/static/functions-json.html курить тут

Andrey
11.01.2018
06:59:04
Можно, кстати и средствами jsonb обновить: https://stackoverflow.com/questions/18209625/how-do-i-modify-fields-inside-the-new-postgresql-json-datatype

Mihail
11.01.2018
08:05:36
спасибо огромное)

Denis
11.01.2018
08:27:56
всем привет! подскажите, а есть какой-то метод понять, страницы памяти какого процесса linux вытеснены в swap?

Andrey
11.01.2018
08:29:34

Айтуар
11.01.2018
08:29:45

Andrey
11.01.2018
08:29:58
https://www.cyberciti.biz/faq/linux-which-process-is-using-swap/

Anton [Mgn, az09@osm]
11.01.2018
08:30:28
своп маст дай

Denis
11.01.2018
08:31:25

Айтуар
11.01.2018
08:32:40

Vadim
11.01.2018
08:42:39

Anton [Mgn, az09@osm]
11.01.2018
08:42:52
OOM killer must have?
ну я недавно прошелся по киллеру (или он по мне). ничего страшного, поправил конфиг и дальше лопатить данные отправился

Google

Anton [Mgn, az09@osm]
11.01.2018
08:43:21
надо сказать что это конечно не продакшен а так
в продакшене конечно разное бывает но имнхо своп там тем более стоит перекрывать ОЗУ

Darafei
11.01.2018
08:44:11
своп нужен, он позволяет убрать хлам из памяти и разгрузить её для кеша

Айтуар
11.01.2018
08:44:34

Denis
11.01.2018
08:45:41
только в этом особого смысла нет по-моему
мне надо было посмотреть, какие процессы постгреса залазят в свап... сегодня была таинственная история с дисковой утилизацией под 100% и я бы хотел видеть кто и насколько в нем сидит.

Vadim
11.01.2018
08:46:48

Denis
11.01.2018
08:47:09

Anton [Mgn, az09@osm]
11.01.2018
08:47:10
сопоставление графиков загрузки с логами выполнения = никакой таинственности

Айтуар
11.01.2018
08:47:22

Аггей
11.01.2018
08:51:06

Denis
11.01.2018
08:51:18
проблема в том, что есть маленькая база на 5 гб. вчера вечером она увеличилась на 10% и сегодня утром началась дисковая утилизация под 100%. статистика была собрана нормально, планы были корректны и бодро использовали индексы... при этом один и тот же запрос мог выполняться 2 секунды, а мог и 120 сек. при этом у него были абсолютно одинаковые попугаи в explain (analyze, buffers) и даже количество чтений с дисков было одно и то же. я просмотрел самые ходовые запросы из pg_stat_statemnets по total_time, прикладывал их к графикам mamonsu и...ничего не понял. просто периодически дисковая утилизация 100 и все стоит колом

Аггей
11.01.2018
08:52:36
А временные файлы не писались?

Denis
11.01.2018
08:52:52
я уже подумал, возможно у меня часть страниц из памяти ушла в своп и там сидит - поэтому планировщик ожидает быстрого досупа, а получает доступ с диска. но понять по свопу не смог - его как-то давно полностью попользовал сервер на отчете, и соответственно в htop он был полностью съеден (но не факт, что использоваался)

Айтуар
11.01.2018
08:53:52


Denis
11.01.2018
08:54:46
есть нюанс - эта база живет на виртуалке с общим дисковым пулом от ibm, но опять же - общая загрузка диска хоста была невысокой - в лимитах дисковой подсистемы бился постгрес в виртуализированной системе

Айтуар
11.01.2018
08:54:52

Denis
11.01.2018
08:55:42

Айтуар
11.01.2018
08:55:56