@dba_ru

Страница 98 из 718
Maksim
23.02.2017
12:33:51
это отдельное субд

то есть выходит нужно ставить на отдельный сервер эти аналитикданные

а если сайт использует mysql. а аналитика на другом сервер. там типо api будет ?

Google
Fike
23.02.2017
12:36:55
Maksim
23.02.2017
12:37:54
Расскажите плиз кто работал с этой субд. Какой принцип? со своего mysql убиваю таблицу. создаю отдельную машину где будет это субд и запись в неё и чтение из неё над бд создается api и по нему запрашиваем данные.?

Amber 8
23.02.2017
12:43:45
Как часто тебе нужна точная сумма? Насколько критично не знать сумму за прошедшие N минут?

Fike
23.02.2017
12:44:00
Скорее всего ничего не убиваешь. MySQL остается ssot в этой системе, из которого можно восстановить вторичные системы хранения данных, а в кликхаус просто дублируешь данные

Amber 8
23.02.2017
12:44:49
Я вот по сервисдескам. Всем в обед нужна полная аналитика за несколько лет, и всем насрать на то, что там поменялось сегодня.

Ну так я с утра ебану нужные данные в денормализованном виде в отдельное хранилище и отчёты дам оттуда

Да, они льются два часа. Но в 6 утра похуй

А днем отчёты по несколько секунд генерятся. И все довольны

Fike
23.02.2017
12:48:05
^ ++

Maksim
23.02.2017
12:58:11
что-то я ничего не понял на счет кликхаус и mysql вместе. зачем хранить данные в mysql а потом их переливать в кликхаус. если статистику можно хранить сразу на отдельной машине можно не сильно мощной куда пишется статистика и откуда забирается по запросу ui

Fike
23.02.2017
15:28:17
кликхаус - это не хранилище данных

это именно что аналитическая машина

Maksim
23.02.2017
15:29:05
он может поверх mysql работать ?

Google
Fike
23.02.2017
15:29:11
и этот аналитический движок ты можешь применять для тех же данных, что лежат в мускуле, но для тех случаев, где мускул не тянет

нет, это абсолютно отдельное приложение

конкретно в твоем случае практически наверняка можно дотюнить индексы и остаться на одном mysql

но по-хорошему аналитику лучше отдать отдельному движку просто из-за способа хранения данных, mysql хранит данные строками, а тот же кликхаус - колонками, поэтому выборка по одной колонке у него может быть сопоставима со скоростью чтения с диска

и если запрос параллелится на нескольких машинах, то выборка со скоростью в гигабайты в секунду - это реальность

Amber 8
23.02.2017
15:35:26
и этот аналитический движок ты можешь применять для тех же данных, что лежат в мускуле, но для тех случаев, где мускул не тянет
я вот не очень понимаю, какой может быть профит от любого аналитического софта, если мы его натравим на ту OLTP-базу, в которой ведётся операционная деятельность

а, ну если только в пределах одной СУБД в другую схему и иначе хранить - тогда да

Fike
23.02.2017
15:37:56
я вообще-то про olap

"движок" в том предложении можно заменить на "сервер", "сервис", "приложение"

Maksim
23.02.2017
15:44:52
я пока придумал другое решение) тоже скоростное

индексы не помогли

и т.к. индексы тяжелые для постоянных вставок то лучше их поменьше использовать

Fike
23.02.2017
15:45:43
У меня есть ощущение, что там не индексы не помогли, а мы просто не нашли удовлетворяющий mysql способ их описать

в частности, остался открытым вопрос с типом и вся та страница по оптимизации group by из официальной документации

Maksim
23.02.2017
16:01:44
ну я индекс вешал уже по разному ничего не поменялось. я просто решил агрегировать данные в другую таблицу и потом на крон искать разницу в новых данных и их добавлять в новую таблицу

из 55 млн получилось 75 записей сгруппированые по дню

по часам 150

?

Fike
23.02.2017
16:17:11
ну я индекс вешал уже по разному ничего не поменялось. я просто решил агрегировать данные в другую таблицу и потом на крон искать разницу в новых данных и их добавлять в новую таблицу
в этой индустрии никогда ничего не работает при попытках сделать "по-разному", можно только вычислить причину неожиданного поведения и устранить ее

Ivan
23.02.2017
20:15:59
Посоветуйте как поступить: табличка в мускуле разрослась до 15млн записей, в нее активно пишутся данные, примерно 10 000 строк в день, читаются гораздо реже. Соответственно индексами обмазываться нельзя(они итак уже монструозных размеров) и выборка из таблицы занимает огромное количество времени(тк сервер слабенький). Как выход вижу такой вариант: переименовать таблицу, на основе ее схемы создать новую пустую. В запросах архивную таблицу подключать костылями по мере надобности. Может есть вариант попроще и понадежнее?

Google
aster
23.02.2017
20:24:34
10к строк в день - имхо ниачом

Индекс тут нужен

Ну и конечно зависит от того, что там за селекты такие долгие

Ivan
23.02.2017
20:26:54
Да просто вся таблица в оперативку не влезает

Фул скан напрягает сторадж

aster
23.02.2017
20:27:15
Возможно, что стоит пересмотреть эти селекты.

Fike
23.02.2017
20:27:45
вертикальный шардинг?

aster
23.02.2017
20:27:50
Возможно что там в where надо исключить что-то, вызывающее фулскан

Ivan
23.02.2017
20:33:16
Селектов несколько разных видов, программисты их еще и меняют постоянно, слоу квери остается только изучать.

вертикальный шардинг?
Спасибо почитаю

Ну в принципе вариант подцепить слейв и фильтром ему отдать пару тройку объемных таблиц. Не уверен только возможно ли на слейве будет их обмазать индексами со всех сторон.

lost
23.02.2017
22:18:31
Можно свернуть часть данных, а полную таблицу держать на слейве, если можно из этих данных выделить активно используемую часть данных

lost
23.02.2017
22:18:43
Можно партицировать

А вообще фуллскан на таблице с индексами это к рукам из ягодиц, да да

Можно

Ну в принципе вариант подцепить слейв и фильтром ему отдать пару тройку объемных таблиц. Не уверен только возможно ли на слейве будет их обмазать индексами со всех сторон.

Admin
ERROR: S client not available

lost
23.02.2017
22:22:21
В теории можно даже тип стораджа поменять на реплике

Akzhan
24.02.2017
12:31:43
/stat@combot

Combot
24.02.2017
12:31:43
combot.org/chat/-1001045152752

Google
Vladislav
25.02.2017
16:44:13
https://drive.google.com/open?id=0B-5KWvYl4sSzSXlFZTh1anVuMWc

Fike
25.02.2017
16:45:42
131 страница, дошли до where ?

Vladislav
25.02.2017
16:46:08
Ну я тоже поржал

aster
25.02.2017
17:23:20
Огонь

Можно детям читать на ночь

Fike
25.02.2017
17:26:05
а если в опеку кто стукнет

Egor
25.02.2017
20:39:21
а там условия лучше, чем 8 лет строгача?

Shaz
27.02.2017
14:46:53
Не подскажете есть ли шанс востановить базу в MS SQL. Ситуация такая: сервер внезапно отключили от электричества, БД осталась с незакрытыми транзакциями, файл журнала - поврежден. Далее БД толи пытались сжать толи еще что, и в итоге отсоендили. Версия SQL - 2005 Sp4

Shaz
27.02.2017
14:52:16
Есть, но...
но что?)

Aleksey
27.02.2017
14:52:35
нужна помощь?

Sasha
27.02.2017
14:53:01
Всем привет! Думаю как реализовать Теги. По ссылке все подробности >> https://gist.github.com/zmts/cb22cd51ecf43479d2f6d5368a6f3061 Если будут мысли/желание отписывайтесь пожалуйста в комментариях гиста. Спасибо!

Shaz
27.02.2017
14:54:51
нужна помощь?
Ну скажем так примерная последовательность действий

Александр
27.02.2017
18:36:00
всем привет, кто-нибудь пользовался xtrabackup от percona? Никак не могу найти как можно бэкап (сжатый) просто в локальную папку распаковать

xtrabackup —decompress —export —target-dir=/путь/где/бэкап и он в текущую папку распакует

Dmitriy
27.02.2017
19:57:29
кто пользуется полнотекстовым поиском в sql server

подскажите куда копать: перестает обновляться полнотекстовый индекс

везде настроено амтоматический трекинг изменений

Google
Dmitriy
27.02.2017
19:58:50
но в какой-то момент база приходит в состояние, когда новые строки просто не добавляются в индекс

помогает только rebuild индекса

Страница 98 из 718