@pgsql

Страница 654 из 1062
Аггей
30.01.2018
12:58:18
Так я еще и не нашел - может не ваш вариант

Sergey
30.01.2018
12:58:27
Не торопитесь

Со стороны сервера можно узнать статус соединений с точки зрения системы? И послушать что в них бегает? Может просто файрвол криво вставили

tcp-state у них какой?

Google
Sergey
30.01.2018
13:03:06
И опять-таки - если там 60 сек ничего не бегало - должны закрываться.

basiliscos
30.01.2018
13:17:18
Привет! Умеет ли pg_dump сдампить таблицу как 1 большой INSERT вместо кучи мелких?

basiliscos
30.01.2018
13:28:48
удобней инсерты, таки

Mike Chuguniy
30.01.2018
13:43:42
удобней инсерты, таки
Удобней всего сначала почитать документацию.

И попытаться понять, почему по-умолчанию pg_dump использует COPY..

INSERT понятен, когда надо в больщом дампе поймать ошибочную строку. И/или загрузить дамп с битой(ми) строкой(ами).

Было у меня такое приключение - из мыскля в пг некоторое количество инфы переливал.

Anton
30.01.2018
18:32:59
привет. подскажите,можно ли заставить пг использовать индекс? Hash Cond: (c.code = l.countrycode) -> Seq Scan on public.country c (cost=0.00..7.39 rows=239 width=15) (actual time=0.005..0.233 rows=239 loops=1) Output: c.code, c.name, c.continent, c.region, c.surfacearea, c.indepyear, c.population, c.lifeexpectancy, c.gnp, c.gnpold, c.localname, c.governmentform, c.headofstate, c.capital, c.code2

Seq Scan — индекс на нужные поля есть

Victor
30.01.2018
18:34:10
Seq Scan — индекс на нужные поля есть
сколько записей в таблице всего?

Anton
30.01.2018
18:34:47
239

в плане стоит

Google
Victor
30.01.2018
18:35:02
есть подозрение что постгрес на таком количестве не будет индекс использовать :)

быстрее с диска прочитать последовательно

Anton
30.01.2018
18:35:57
ну в теории всё должно быть в рам. но выбирать даже среди 239 элементов быстрее индексом, чем полным сканом

ну простейшая программа даёт что на массиве больше 3 элементов быстрее дерево/хеш, чем последовательный скан

ну так можно как то убедить пг использовать индекс?

просто даже чтобы проверить

Victor
30.01.2018
18:39:42
нагуглил set enable_seqscan=false

не знаю правда зачем такой изврат, и поможет ли

Anton
30.01.2018
18:41:34
согласен что зависит от многих факторов, но 239 точно "достаточно много" чтобы индекс имел смысл

впрочем, итоговое время исполнения не изменилось... :)

Anton
30.01.2018
18:42:01
@moveaxeax сенкс.

Victor
30.01.2018
18:42:13
я правда нуб, не знаю тонкостей таких

Igor
30.01.2018
18:42:34
офтопный вопрос, а какой самый лучший tool для бекапа всего ванильного Pg?

нужно всю бд забекапить

Anton
30.01.2018
18:43:32
тестовая программа давала 422-429 запросов в секунду. после отклучения секскан получилось 423. т.е. никаких изменений, хотя по плану видно что секскана больше нет

я вижу что хуже не стало. как и лучше не стало.

не должно было

по логике могло стать хуже

ну как не могло? секскан на то и нужен что он иногда быстрее

Google
Anton
30.01.2018
18:46:34
на малых объёмах данных за счёт большей локальности кеш процессора может давать большой плюс именно секскану

я понимаю что он иногда быстрее. но в моём случае получилось одинаково

видимо если строк в таблицу добавить, то будет медленнеее

может и получил бы

но я хотел проверить. дело в том что одна и та же дб в пг и мыскуле. разница в скорости тестовой программы около 20% не в пользу пг. вот, я пытался понять можно ли ускорить

Evgeniy
30.01.2018
18:54:10
нагуглил set enable_seqscan=false
нагугли лучше random page cost и secscan page cost

Anton
30.01.2018
18:55:09
совершенно точно выбранных записей будет сильно меньше 239

Evgeniy
30.01.2018
18:56:04
зачем?
ну это более нежные крутилки чем запрет вообще какой-то ноды планера

Anton
30.01.2018
18:57:38
239 записей в таблице. выбираться должно ну штук 15

я показал часть плана, план побольше будет

вот план: https://pastebin.com/F6qiaEFR

WHERE Language = 'English';

Evgeniy
30.01.2018
19:03:27
это в лефт жойн

и вообще чо вы мозги ебете при 4мс

Anton
30.01.2018
19:04:07
Сергей
30.01.2018
19:05:05
чем хуже-то? залей лям и сравнивай

это вообще не числа для базы

Anton
30.01.2018
19:05:32
какой "залей лям"? это сэмпл дб, она уже есть

Google
Evgeniy
30.01.2018
19:06:02
20% хуже мыскл
ну по одному запросу если и стоит сравнивать, то только если это самый критичный запрос. типа на 20% меньше денег заработаем

Anton
30.01.2018
19:06:54
это значит на 20% больше ресурсов нужно

Evgeniy
30.01.2018
19:07:12
если только этот запрос ебашить да

так а почему там лефт джойн к языку?

Darafei
30.01.2018
19:08:22
Anton
30.01.2018
19:08:41
Ты забываешь про время планирования
должно кешироваться по идее.

т.е. план должен кешироваться

Darafei
30.01.2018
19:08:58
А 200 записей - это странички этак четыре

Anton
30.01.2018
19:09:42
так а почему там лефт джойн к языку?
для одинаковости, чтобы сравнивать со сгенерированным орм запросом...

Evgeniy
30.01.2018
19:10:11
а посмотри ради интереса на другой запрос и его план и время

Darafei
30.01.2018
19:10:20
На четырех страницах ничего планировать не надо, их надо просто прочитать, если кост строки не запредельный

Страница 654 из 1062