@pgsql

Страница 91 из 1062
Fike
16.09.2016
14:01:39
Проекты сами по себе растут и требуют изменений. Обеспечение стабильного интерфейса как правило просто невозможно, если проект не мертвый. Да, нужно понимать что и зачем делать и стараться по минимуму залезать в работающие механизмы, но если база данных этого не позволяет, проекты просто будут брать другую базу данных.

Vadim
16.09.2016
14:10:41
а зачем вообще дропать индексы!?
допустим что для перестроения индекса, так как rebuild online не блокирующего запись нету

Yury
16.09.2016
14:13:41
что вы делаете такого, что вам приходится часто перестраивать индексы?

Vadim
16.09.2016
14:14:51
про эппл вроде шутили, если у нас нет каких-то функций, значит вам это не нужно)

Google
Айтуар
16.09.2016
14:25:15
Yury
16.09.2016
14:26:08
btree? это вроде у GIN с этим проблеммы

Айтуар
16.09.2016
14:26:52
у btree

Yury
16.09.2016
14:27:17
online дефрагментатор давно бы уже ктонить запилил :(

Sergey
16.09.2016
14:27:55
У btree в 9.4 тоже проблемы

Vadim
16.09.2016
14:37:39
какой дефрагментатор, в постгрессе реорганизации индекса же вообше нет, только перестроение

Yury
16.09.2016
14:49:31
это не значит что его нельзя сделать

Vadim
16.09.2016
14:50:19
ну да, значит реорганизация не помешала бы, с очень мягкими локами)

Stanislav
16.09.2016
15:21:50
Про то, что все течет, меняется и развивается. Меняется бизнес -меняется софт. Меняется софт - меняются схемы в БД.

Yury
16.09.2016
15:23:02
ну это то ясно, я говорю про то что бы это делать часто, к примеру несколько раз в день уже наверное часто особенно если крупная БД

Pavel
16.09.2016
16:09:58
Как раз для таких штук придумали jsonb

Google
Fike
16.09.2016
16:11:13
для того, чтобы все туда засунуть на случай изменений?

Pavel
16.09.2016
16:13:24
Да. Только засовывать надо не все, а по минимуму. То что меняется часто.

Fike
16.09.2016
16:13:40
Так откуда мы можем знать, что поменяется завтра?

Pavel
16.09.2016
16:15:34
Что, и первичные ключи меняются? ;)

Fike
16.09.2016
16:16:37
хорошо, делать таблицы из N + 1 столбцов, где N - количество столбцов в первичном ключе?

Pavel
16.09.2016
16:17:22
Ну, это же будет сферический совет в вакууме. Надо смотреть предметную область, задачи, тренды.

Fike
16.09.2016
16:17:38
Как раз для таких штук придумали jsonb
вот сферический совет в вакууме

Pavel
16.09.2016
16:18:03
А вы пробовали все засунуть в jsonb ? тормозит?

Но если у вас действительно все действительно меняется действительно часто, то я вам не завидую. И код (всякие ORM/active record) тоже все переписываются ?

Fike
16.09.2016
16:18:59
Зачем мне вообще использовать документо-ориентированный подход в SQL? Когда мне нужны неструктурированные документы, я беру документоориентированное хранилище.

Pavel
16.09.2016
16:19:34
Потому что pgsql и в том числе документноориентированное хранилище тоже.

Fike
16.09.2016
16:20:01
Да какая разница, часто или нет. "Плохие разработчики", "плохо когда часто меняется" - это попытки затопттать проблему в подвал вместо того, чтобы подумать, как ее решить.

Fike
16.09.2016
16:20:27
Господи, да нет никакого часто

Просто есть сам факт того, что это время от времени происходит

Quet
16.09.2016
16:20:57
да надумана проблема же

Lupsick
16.09.2016
16:21:15
посоны, а как можно в pg вот этот запрос сделать? accounts = accounts.where('accounts.id = :search', { search: params[:search] }) оно ругается про то что не может текст к интегер привести

Pavel
16.09.2016
16:21:44
В общем это какой-то сферический спор. Для решения такой проблемы есть весь набор подходов - шардинг, партиционирование, jsonb, кеширование, абстракция и т.д.

Я так понял что jsonb вы смотрели и вам он просто не подошел :)

Google
Rafkat
16.09.2016
16:24:07
Привет всем, повторюсь

Как лучше хранить тайм-сериес? В самом бд

В пг том же

Pavel
16.09.2016
16:26:46
Как лучше хранить тайм-сериес? В самом бд
http://grisha.org/blog/2015/09/23/storing-time-series-in-postgresql-efficiently/ вот, может поможет

Magistr
16.09.2016
16:32:41
Как лучше хранить тайм-сериес? В самом бд
какой тайм сериес ? на сколько долго ? какой объем ? какова скорость поступления новых метрик ? просто есть opentsdb если нужно долго и точно

Konstantin
16.09.2016
16:36:42
Это есть

Толку от этого есть, эсли вью агрегируют данные по разному

Только это помоему наблюдения :-)

Vadim
16.09.2016
16:40:23
да надумана проблема же
как надумана, только что же с кейсом пришли, что индексы очень долго дропаются

Rafkat
16.09.2016
16:40:47
Надо строить графики в реалтам и за последние сутки

Rafkat
16.09.2016
16:41:19
Пока 30

Magistr
16.09.2016
16:43:37
Пока 30
rdbms умрут, а отказоустойчивость нужна ?

Yury
16.09.2016
16:45:17
Да какая разница, часто или нет. "Плохие разработчики", "плохо когда часто меняется" - это попытки затопттать проблему в подвал вместо того, чтобы подумать, как ее решить.
Можно искать решения для неверных задачь, куда лучше такие задачи не ставить. Думаю примеров можете много привести.

фьюх... намучался. Мержил последний master с моей cmake веткой.

но оно опять работает

правда на MSVC надо ещё добить

Google
Magistr
16.09.2016
16:48:57
Надо строить графики в реалтам и за последние сутки
А агрегация нужна ? т.е усреднение данных для уменьшения объема хранения

Konstantin
16.09.2016
16:53:06
Сотня нод

Ссд диски

Инфини бред

Бенд

Денег ведро :-)

Rafkat
16.09.2016
16:53:59
Konstantin
16.09.2016
16:54:10
Да

Magistr
16.09.2016
16:54:24
Greenplum
А забыл про него, тогда и эта от яндекса clickhouse еще

Konstantin
16.09.2016
16:55:45
Не

Для этого не пойдёт

Клик хауз имеет специфику

Magistr
16.09.2016
16:56:30
Да, например поминутная агрегация
Еще как варианты это графитовые бекэнды, ceres, whisper, opentsdb (тащит хбейс)

Konstantin
16.09.2016
16:56:40
Неважно

Важно сколько узлов

В плюме

Главное брать симметричное число

Magistr
16.09.2016
16:57:53
ну в тех условиях что выше сказали там пол ляма метрик в минуту, на 1м серве графита их можно записать, правда вот про 30 раз в секунду тут надо смотреть

Konstantin
16.09.2016
16:58:09
Писать в хадуп

Google
Konstantin
16.09.2016
16:58:26
Читать в плюм по gphdfs

.пилить и считать

Magistr
16.09.2016
16:59:21
а сколько у него оверхед на точку в байтах ?

Konstantin
16.09.2016
16:59:28
Hive медленный для этого

А какая разница, массово же грузится

Плюм это ведро денег,

Или два :-)

На железо

Ты скажи что надо спилить

Magistr
16.09.2016
17:02:04
я привык считать хостинг амазоне )) поэтому там еще и эффективно данные хранить тоже полезно

Konstantin
16.09.2016
17:02:12
Неа

Непойдет

Только железо

Амазон это боль

20 рядов железа :-)

Два петабайта

Полтера в секунду

Это да :-)

Magistr
16.09.2016
17:03:59
ну да такое выгодно на своем

Konstantin
16.09.2016
17:04:32
Вариантов нет

Поверх хорошо положить рапид манер

Страница 91 из 1062