@pgsql

Страница 1010 из 1062
Maxim
01.10.2018
10:38:39
Ну чисто теоритически, так как времени на эсперементы нет

Yaroslav
01.10.2018
10:38:49
Google
Yaroslav
01.10.2018
10:40:11
А в чем модель неправильная то?
Вы предложили две, как я понял? Почему бы просто не использовать ту, которая правильнее в Вашем случае?

Maxim
01.10.2018
10:40:59
Вы предложили две, как я понял? Почему бы просто не использовать ту, которая правильнее в Вашем случае?
Да как бы без разницы и ту и ту можно использовать будет удобно с точки зрения разработки

Mike Chuguniy
01.10.2018
10:41:12
Pg_roles показывает пароли, но информацию о том где что хоанит тут не нашёл
1. вы невнимательно смотрите документацию: pg_roles - это вьюха, и в самом начале доки по ней есть ссылка на табличку, откуда берутся данные; 2. вы невнятно формулируете вопрос, из которого совсем непонятно, чего вы добиваетесь;

Yaroslav
01.10.2018
10:42:42
Да как бы без разницы и ту и ту можно использовать будет удобно с точки зрения разработки
Т.е. у Вас ссылок на эти квартиры нигде не будет? И набор свойств у этих сущностей одинаковый?

Maxim
01.10.2018
10:44:33
Т.е. у Вас ссылок на эти квартиры нигде не будет? И набор свойств у этих сущностей одинаковый?
Ссылок в другие таблицы нет. Да все поля все одинаковые, кроме аренды и продажи

Mike Chuguniy
01.10.2018
10:45:41
Maxim
01.10.2018
10:50:31
У вас два столбца: аренда и продажа что ли? И что там?
Почему, столбцов много. Но они все одинаковые у этих объектов (площадь, количество комнат, тип квартиры и т.д.). Но если хранить объекты в одной таблицы (те которые на продажу и те кторые на аренду), то надо будет добавить столбец (продажа/аренда). Либо сделать две таблицы. В одноцй будут хранится объекты на продажу, в другой на аренду. Но эти таблицы будут абсолютно одинаковые по столбцам. В выборке в первом случае надо будет указать аренда или продажа и делать выборку из одной таблицы, во втором просто выбрать таблицу и туда делать запросы на нужные параметры

И соотвественно в первом случае в таблицы будут 200 000 объектов и одна таблица, а во втором 100 000 объектов и 2 таблицы

Mike Chuguniy
01.10.2018
10:52:59
сотни тысяч записей в таблицах - это не вот уж объём. Если вы в каждой записи не собираетесь ПСС В.И. Ленина хранить.

Или Л.Н. Толстого.

Maxim
01.10.2018
10:53:23
нет)

Mike Chuguniy
01.10.2018
10:53:41
Хотя... Война и мир, например, всего-то 3Мб весит в KOI-8.

Google
Terminator
01.10.2018
10:54:05
@winnie_ua будет жить. Поприветствуем!

Yaroslav
01.10.2018
10:57:22
И соотвественно в первом случае в таблицы будут 200 000 объектов и одна таблица, а во втором 100 000 объектов и 2 таблицы
В таком случае, всё равно правильный способ хранения зависит от того, что в модели "вокруг" этой/этих таблиц. А если ничего нет... то это несколько странная модель, мне кажется.

Maxim
01.10.2018
10:59:31
В таком случае, всё равно правильный способ хранения зависит от того, что в модели "вокруг" этой/этих таблиц. А если ничего нет... то это несколько странная модель, мне кажется.
в обоих случаях окружение одиноковое. Перформулирую вопрос. Имеет ли смысл одну таблицу с сотней тысяч объектов разделить на две?

что бы сократить количество объектов в одной таблице

Yaroslav
01.10.2018
11:00:48
в обоих случаях окружение одиноковое. Перформулирую вопрос. Имеет ли смысл одну таблицу с сотней тысяч объектов разделить на две?
Да это ясно, что оно одинаковое. Вопрос в том, какое оно. > Имеет ли смысл одну таблицу с сотней тысяч объектов разделить на две? Просто так, без причин? Нет, не имеет, IMHO.

Maxim
01.10.2018
11:03:46
Да это ясно, что оно одинаковое. Вопрос в том, какое оно. > Имеет ли смысл одну таблицу с сотней тысяч объектов разделить на две? Просто так, без причин? Нет, не имеет, IMHO.
Причина только логическая. Окружение я сделал так. Например столбец тип квартиры (студия, элитная, ...) ссылается на таблицу типов, но в котороый тип квартиры это первичный ключ и при запросе ненадо делать join

и так все остальные столбцы

вот так https://postgrespro.ru/docs/postgresql/10/tutorial-fk

Maxim
01.10.2018
11:25:11
Схема не совсем еще готова, например стоят varchar вместо int так как удобно было так отлаживать

Yaroslav
01.10.2018
11:35:42
Схема не совсем еще готова, например стоят varchar вместо int так как удобно было так отлаживать
А это "учебная" схема, или Вы ей на самом деле собираетесь пользоваться? А по самой схеме: получается, что на apartments_sale всё "кончается", т.е. на неё уже никаких сслылок не будет и т.п.?

Bogdan
01.10.2018
11:38:02
varchar вместо int так как удобно было так отлаживать У вас связей нету между табилцами, город /область/раен ни как не ссылаются друг на друга и на страну

И соотвественно в первом случае в таблицы будут 200 000 объектов и одна таблица, а во втором 100 000 объектов и 2 таблицы
200_000 это не то к-во строк, где надо задумываться про шардинг но овбще разбить можно на две таблицы, но как я понимаю логикаповедения во многом общая у вас, смысла большого нет

Yaroslav
01.10.2018
11:44:58
Да не будет, а зачем?
Да откуда мне-то знать? ;) Это же Ваша модель. Если бы были, был бы другой разговор... а так, по большому счёту, неважно, сколько тут таблиц; но, с другой стороны, непонятно, почему Вам хочется "разбить" именно по этому признаку, а не по любому (или даже нескольким, а то и по всем ;) ) другому boolean (например, mortgage)? ;) В самом деле, Вы можете себе ответить на вопрос "почему нет?" или "чем именно признак продажа/аренда такой особенный?"?

Maxim
01.10.2018
11:48:14
особенный чисто логически, просто думал что скорость будет выше при запросах так как сотни тысяч объектов может быть в будщем

но как я понял это на таких количествах объектов не так важно

спасибо

Google
Yaroslav
01.10.2018
11:58:51
особенный чисто логически, просто думал что скорость будет выше при запросах так как сотни тысяч объектов может быть в будщем
При правильной индексации (и достаточной селективности условий) даже заментных отличий в скорости не будет.

elfiki
01.10.2018
12:03:58
пользуясь случаем спрошу про наследование таблиц

стоит? не стоит?

ну и применение в рамках озвученной выше задачи про квартиры?

Yaroslav
01.10.2018
12:05:49
стоит? не стоит?
Почти наверняка не стоит (только для партиционирования и каких-нибудь "трюков", но не для моделирования).

Yuriy
01.10.2018
12:10:00
стоит? не стоит?
не стоит, есть ограничения… Для партицирования лучше сразу pg_pathman использовать.

Anatoly
01.10.2018
13:50:14
добрый день. в pg11 завезли проверку чексумм для бэкапов и pg_basebackup совместим со старыми версиями. но будет ли он для старых версий делать проверку?

Terminator
01.10.2018
13:51:06
@diogenes228 будет жить. Поприветствуем!

Диоген
01.10.2018
13:58:22
У меня вопросы сразу. Мне чтобы distinct on использовать, надо в ордер бай указать все перечисленные колонки, правильно?

И могу ли я как-то постусловия фильтрации добавить

или же мне придется делать select * from ( select distinct on... ) where column = ...?

Yaroslav
01.10.2018
13:59:39
У меня вопросы сразу. Мне чтобы distinct on использовать, надо в ордер бай указать все перечисленные колонки, правильно?
Да, по крайней мере их (SELECT DISTINCT ON expressions must match initial ORDER BY expressions). И да, чтобы фильтровать после DISTINCT ON, Вам понадобится вложенный запрос.

Anatoly
01.10.2018
14:03:34
Так они же на источнике проверяются. Так что, нет.
спасибо. я думал, что верификация происходит с выкачанными данными на строне pg_basebackup. а потом начал тестировать коррапты и бэкап проходит нормально.

погрустнел

Anatoly
01.10.2018
14:05:24
блин. значит, что валидация чексумм при бэкапах дороже, чем я думал, для кластера..

Yaroslav
01.10.2018
14:07:16
блин. значит, что валидация чексумм при бэкапах дороже, чем я думал, для кластера..
Вряд ли существенно (не зря она включена по умолчанию, мне кажется).

Anatoly
01.10.2018
14:07:52
тут вроде есть некоторое противоречие, так как ее включили в бэкапах, но не включают в initdb

Yaroslav
01.10.2018
14:25:10
тут вроде есть некоторое противоречие, так как ее включили в бэкапах, но не включают в initdb
Да вроде нет. ;) Тем, какую нагрузку на сервер создаёт pg_basebackup, можно управлять, в отличие от влюченных checksums в initdb. Другой вопрос, почему бы их не сделать включенными по умолчанию в initdb...

Google
elfiki
01.10.2018
14:28:20
пацаны, тут как-то советовали pghero

под freebsd его никто не ставил?

Pavel
01.10.2018
15:03:34
как мне заджоинть две таблицы и вывести поле которое есть там и там?

Denis
01.10.2018
15:05:16
используя alias, например: SELECT a.code AS a_code, b.code AS b_code FROM a, b

Евгений
01.10.2018
17:48:04
Доброго времени суток всем! Кто подскажет Postgres-BDR на данный момент полностью совместим с 9.6? Или вообще нет?

Так как раньше он под 9.4 только был в качестве расширений и патчей, потом вроде как некоторые из них в ядро 9.6 попали, но без sequence access method patchа, как сейчас?

Vadim
01.10.2018
17:51:58
в открытом доступе только 1 версия для 9.4. 2 и 3 релиз небесплатен. Если ничего не поменялось

ivan
01.10.2018
18:03:19
Подскажите плз, как написать запрос, который будет искать все идентичные rows(отличаются только id)

Yaroslav
01.10.2018
18:13:57
AlexAnder
02.10.2018
07:12:37
возможно ли скопировать базу с дев окружения на локальное, при этом сохранив все ключи(pk/fk/etc) ?

обычный pg_dump/pg_restore позволяет развернуть базу, но при этом генерируются другие айдишники для записей

Bogdan
02.10.2018
07:24:54
обычный pg_dump/pg_restore позволяет развернуть базу, но при этом генерируются другие айдишники для записей
очень странно, pg_restore восстаналнивает как айдишники так и sequence'ы что то вы делали не так

Александр
02.10.2018
07:25:00
Что-то не верится

Bogdan
02.10.2018
07:25:51
правда там, с AWS / Google Cloud могут быть нюансы с правми доступа

AlexAnder
02.10.2018
07:26:50


полагаю необходимые параметры не указал

Bogdan
02.10.2018
07:29:02
у тебя только один чекбокс стоит, вобще попробуй консольную версию, с дефолтными пармтерами, а не гуй

Google
AlexAnder
02.10.2018
07:30:30
ok.

Bogdan
02.10.2018
07:31:35


AlexAnder
02.10.2018
07:46:40
ага, получилось, спасибо)

Terminator
02.10.2018
08:09:03
@tookan будет жить. Поприветствуем!

Demuz
02.10.2018
09:05:25
Подскажите, автобэкаперы бд есть какие-нибудь? Например собирает архивы с pg_dump N'ное количество, затем начинает удалять старые и тому подобное.

Страница 1010 из 1062