
Аггей
25.03.2017
08:42:41
Проверка селектом сродни генерации id через select max(id)+1
Вроде работает, но в определённый момент вставки становится слишком много

Max
25.03.2017
08:44:07
))) не знаю, я ничего криминального не вижу в данной задаче небольшого потока регающихся людей
кстати слетел только что генератор, бывает само собой такое? просто в FB у меня как-то было

Google

Аггей
25.03.2017
08:49:04
Я в ту пору когда пользовался ib и fb ещё не знал о генераторах, и вообще нихрена не знал. А в postgres такого небывало у меня.

Max
25.03.2017
08:52:02

Аггей
25.03.2017
08:52:40

Max
25.03.2017
08:53:17
)))))

Аггей
25.03.2017
08:53:29
Из ib сейчас помню только gbak и постоянное обслуживание им бд
Это был аналог вакуума )

Max
25.03.2017
08:55:11
а помню что сижу пишу пишу процедуру первую свою, пол дня писал, хочу зарегать а мне говорят что слишком уж она большая у вас и надо разбить на несколько о_О
нельзя было хранимки писать больше 64 Кб

Аггей
25.03.2017
08:56:19
Это вы как Лев Толстой просто ))

Max
25.03.2017
09:09:07
))

Артур
25.03.2017
12:47:12
И потом что в 64 кб можно уместить, чтобы не запутаться?
Вроде же подсознательно хочется разбить большой код

Google

Артур
25.03.2017
12:50:12
Я сейчас без сарказма, реально интересно. Это же тоже опыт. Может я делаю неправильно, что не пишу громадный код.

Stanislav
25.03.2017
14:55:05
Добрый день. Ребят есть такой вопрос. Имеется некий mqtt брокер и на него сливают данные с датчиков реалтайме. И имеется база в постгресе которая выводит геоданные на гис портале. Вопрос: можно ли подключить под мою базу с геоданными значения который гонит mqtt брокер?

Alex
25.03.2017
15:07:44
не очень понятно что хочешь сделать

Max
25.03.2017
15:47:25
Прикольно, а в каком году это было?
2007 по-моему. Ну 64 кб это и не много, это полтора экрана текста отформатированного. Вот потом я работал в компании где очень много логики было в БД, так там километровые хранимки )

Andrey
25.03.2017
15:55:41

Max
25.03.2017
15:58:32

Andrey
25.03.2017
16:02:07
а вы в курсе какие характеристики вагона и сколько их?
Нет, однако уверен, что каждый набор характеристик, требуемый в рамках отдельного расчета, невелик. Следовательно, забрасывать их все в одну таблицу целесообразно только тогда, когда эта таблица используется исключительно в качестве справочника по первичному ключу.
50М строк говорит о том, что это не так.

Max
25.03.2017
16:04:16
80, может загнул, давно дело было, в студии развернутый список полей занимал ну почти экран. И это все вполне нужные поля, большой процент которых используется во многих запросах.

Andrey
25.03.2017
16:08:48
На мой взгляд, чрезмерная самоуверенность имеет место у Вас, и исходит она от бесспорного принятия имеющейся архитектуры.
Видите ли, 50М строк на хозяйственную операцю не может говорить о соответствующей сложности хозяйственной операции - не бывает таких операций.

Max
25.03.2017
16:08:49
так то таблиц конечно много было, сам вгон, что везет другая таблица, куда везет другая и т.п. никто все что попало в одну не пихает естествнно, но сути дела не меняет
Человек спросил почему такие большие хранимки получаются, я рассказал историю злого инетрпрайза
А спор получается беспредметный
надо брать конкретную задачу и разбирать


Darafei
25.03.2017
16:20:05
я из ЖД имел дело только с измерениями уползания рельсов. их там хранили в эксель-лайк схеме, где строкой был датчик, а колонками - даты
сломалось всё, когда в mssql на лимит колонок наступили, кажись

Max
25.03.2017
16:21:06
о о поперло обсуждение, нук навались народ ))))

Darafei
25.03.2017
16:21:08
разворачивали в адекватную схему

Google

Andrey
25.03.2017
16:21:46

Max
25.03.2017
16:22:13

Andrey
25.03.2017
16:22:19

Darafei
25.03.2017
16:23:03
но это целая хранимка была, чтобы такое апдейтить

Max
25.03.2017
16:23:15
ну не я работал, учредители
т.е. задачи ставили не абы кто, а люди которые прошли путь от диспетчера до советника
да да не удивляйтесь, есть такая должность на ЖД - советник ))

Andrey
25.03.2017
16:25:41

Max
25.03.2017
16:28:00
я вот тоже могу сванговать что самые интересные данные которые у вас были это информация о товаре в интернет магазине)

Darafei
25.03.2017
16:29:58
ой, да ладно вам, регулярно пишу и сношу хранимки на три экрана

Andrey
25.03.2017
16:30:32

Max
25.03.2017
16:31:00

Darafei
25.03.2017
16:31:14
вы так договоритесь до того, что дёргать http из запроса ненормально

Andrey
25.03.2017
16:31:33

Max
25.03.2017
16:32:22
а ну понятно ))) вечер поговорить нескем )

Andrey
25.03.2017
16:32:55

Fike
25.03.2017
16:34:42
Чет все больше вспоминается, где были куплены первые сваровски

Google

Max
25.03.2017
16:35:10
А Вам?
ды вроде тоже, но не продуктивно как-то получается)
я могу еще дровишек в топку подбросить - было штук 50 джобов по которым обсчитывалось, загружались данные и т.п.

Darafei
25.03.2017
16:39:24
ну а табличка в 80+ колонок в логистике вообще дело обычное
да, можно бы и структуру поменять, но часто просто незачем

Max
25.03.2017
16:45:10
+

Andrey
25.03.2017
17:18:49

Артур
25.03.2017
23:36:26
после такого баттла, как то неловко задавать вопросы :)

Admin
ERROR: S client not available

Артур
25.03.2017
23:37:27
Но, всетаки задам:
Насколько правильно использвать в бэкенде такие фокусы для выгрузки данных:
Copy (Select * From foo) To '/var/www/mysqite.loc/export/test.csv' With CSV DELIMITER ',';

Anton
26.03.2017
04:28:21
Ну а вам как кажется? Учитывая выполнение COPY на стороне сервера БД? Не портабельно однако

Stanislav
26.03.2017
06:02:18
Вопрос
Вопрос: Есть поток данных с частотой обновления в 1 секунду, можно ли писать лог работы сервера с привязкой ко времени и значением в каждую секунду времени? а этот лог использовать как БД для построения графика (температура, давление)

Аггей
26.03.2017
06:22:25

Stanislav
26.03.2017
06:30:18
Данные уже вставляются. Вопрос в том, что можно ли эти данные писать в лог, а лог в своё время использовать для динамической диаграммы типа Дата+время_значение.

Anton
26.03.2017
06:46:28
Вам time-series данные хранить надо?
если так, то почему не делать выборку сразу из БД?
вы же уже положили туда данные
Но, при большом объеме таблиц, быстродействие будет не особо впечатляющим )

Аггей
26.03.2017
06:55:56
А за какое время нужны логи? Можно сделать триггер который будет писать в "соседнюю" таблицу, которую можно очищать по-необходимости.

Google

Stanislav
26.03.2017
06:56:41

Anton
26.03.2017
06:57:05
у вас постоянные update?

Stanislav
26.03.2017
06:57:16
да, частота 1 сек

Anton
26.03.2017
06:57:26
почему не INSERT? По производительности одинаково, но можно хранить историю

Stanislav
26.03.2017
06:57:33
для тест 1 таблица 2 параметра 2 столбца

Айтуар
26.03.2017
06:57:34

Stanislav
26.03.2017
06:57:51
снимать показания температуры

Anton
26.03.2017
06:57:52
INSERT быстрее даже )

Stanislav
26.03.2017
06:57:55
влажности

Айтуар
26.03.2017
06:58:08
Делаете инсерты и партиции по времени.

Anton
26.03.2017
06:58:37
согласен. Партицирование - то что надо
учитывая параллельный сиквенс скан в 9.6

Айтуар
26.03.2017
06:58:39

Anton
26.03.2017
06:59:00
триггер можно по тому же timestamp сделать
простое и надежное решение получится

Айтуар
26.03.2017
06:59:45

Anton
26.03.2017
07:00:46
сюда можно код кидать? )

Айтуар
26.03.2017
07:00:50

Stanislav
26.03.2017
07:01:10
мне нужно что бы в реалтайме графики отображались

Anton
26.03.2017
07:01:43
Stanislav используйте тогда KV хранилища типа редиса как кеш

Stanislav
26.03.2017
07:01:59