
Аггей
30.01.2018
12:58:18
Так я еще и не нашел - может не ваш вариант

Sergey
30.01.2018
12:58:27
Не торопитесь
Со стороны сервера можно узнать статус соединений с точки зрения системы? И послушать что в них бегает? Может просто файрвол криво вставили
tcp-state у них какой?

Google

Sergey
30.01.2018
13:03:06
И опять-таки - если там 60 сек ничего не бегало - должны закрываться.

basiliscos
30.01.2018
13:17:18
Привет! Умеет ли pg_dump сдампить таблицу как 1 большой INSERT вместо кучи мелких?

Sergey
30.01.2018
13:27:58

basiliscos
30.01.2018
13:28:48
удобней инсерты, таки

Mike Chuguniy
30.01.2018
13:43:42
И попытаться понять, почему по-умолчанию pg_dump использует COPY..
INSERT понятен, когда надо в больщом дампе поймать ошибочную строку. И/или загрузить дамп с битой(ми) строкой(ами).
Было у меня такое приключение - из мыскля в пг некоторое количество инфы переливал.

Anton
30.01.2018
18:32:59
привет. подскажите,можно ли заставить пг использовать индекс?
Hash Cond: (c.code = l.countrycode)
-> Seq Scan on public.country c (cost=0.00..7.39 rows=239 width=15) (actual time=0.005..0.233 rows=239 loops=1)
Output: c.code, c.name, c.continent, c.region, c.surfacearea, c.indepyear, c.population, c.lifeexpectancy, c.gnp, c.gnpold, c.localname, c.governmentform, c.headofstate, c.capital, c.code2
Seq Scan — индекс на нужные поля есть

Victor
30.01.2018
18:34:10

Anton
30.01.2018
18:34:47
239
в плане стоит

Google

Victor
30.01.2018
18:35:02
есть подозрение что постгрес на таком количестве не будет индекс использовать :)
быстрее с диска прочитать последовательно

Anton
30.01.2018
18:35:57
ну в теории всё должно быть в рам. но выбирать даже среди 239 элементов быстрее индексом, чем полным сканом
ну простейшая программа даёт что на массиве больше 3 элементов быстрее дерево/хеш, чем последовательный скан
ну так можно как то убедить пг использовать индекс?
просто даже чтобы проверить

Victor
30.01.2018
18:39:42
нагуглил
set enable_seqscan=false
не знаю правда зачем такой изврат, и поможет ли

Anton
30.01.2018
18:41:34
согласен что зависит от многих факторов, но 239 точно "достаточно много" чтобы индекс имел смысл
впрочем, итоговое время исполнения не изменилось... :)

Victor
30.01.2018
18:41:59

Anton
30.01.2018
18:42:01
@moveaxeax сенкс.

Victor
30.01.2018
18:42:13
я правда нуб, не знаю тонкостей таких

Igor
30.01.2018
18:42:34
офтопный вопрос, а какой самый лучший tool для бекапа всего ванильного Pg?
нужно всю бд забекапить

Anton
30.01.2018
18:43:32
тестовая программа давала 422-429 запросов в секунду. после отклучения секскан получилось 423. т.е. никаких изменений, хотя по плану видно что секскана больше нет
я вижу что хуже не стало. как и лучше не стало.
не должно было
по логике могло стать хуже
ну как не могло? секскан на то и нужен что он иногда быстрее

Google

Anton
30.01.2018
18:46:34
на малых объёмах данных за счёт большей локальности кеш процессора может давать большой плюс именно секскану
я понимаю что он иногда быстрее. но в моём случае получилось одинаково
видимо если строк в таблицу добавить, то будет медленнеее
может и получил бы
но я хотел проверить. дело в том что одна и та же дб в пг и мыскуле. разница в скорости тестовой программы около 20% не в пользу пг. вот, я пытался понять можно ли ускорить

Victor
30.01.2018
18:53:45

Evgeniy
30.01.2018
18:54:10

Victor
30.01.2018
18:54:38

Anton
30.01.2018
18:55:09
совершенно точно выбранных записей будет сильно меньше 239

Evgeniy
30.01.2018
18:56:04
зачем?
ну это более нежные крутилки чем запрет вообще какой-то ноды планера

Anton
30.01.2018
18:57:38
239 записей в таблице. выбираться должно ну штук 15
я показал часть плана, план побольше будет
вот план: https://pastebin.com/F6qiaEFR
WHERE Language = 'English';

Evgeniy
30.01.2018
19:03:27
это в лефт жойн
и вообще чо вы мозги ебете при 4мс

Anton
30.01.2018
19:04:07

Сергей
30.01.2018
19:05:05
чем хуже-то? залей лям и сравнивай
это вообще не числа для базы

Anton
30.01.2018
19:05:32
какой "залей лям"? это сэмпл дб, она уже есть

Google

Evgeniy
30.01.2018
19:06:02
20% хуже мыскл
ну по одному запросу если и стоит сравнивать, то только если это самый критичный запрос. типа на 20% меньше денег заработаем

Anton
30.01.2018
19:06:54
это значит на 20% больше ресурсов нужно

Evgeniy
30.01.2018
19:07:12
если только этот запрос ебашить да
так а почему там лефт джойн к языку?

Darafei
30.01.2018
19:08:22

Anton
30.01.2018
19:08:41
т.е. план должен кешироваться

Darafei
30.01.2018
19:08:58
А 200 записей - это странички этак четыре

Anton
30.01.2018
19:09:42

Evgeniy
30.01.2018
19:10:11
а посмотри ради интереса на другой запрос и его план и время

Darafei
30.01.2018
19:10:20
На четырех страницах ничего планировать не надо, их надо просто прочитать, если кост строки не запредельный