
Anton
20.12.2017
19:06:51
1) увелич ещё, если память позволяет
2) осставь иннодб
3) я бы ещё прогрел выборкой по стотавному индексу какому-нить

Alexey
20.12.2017
19:07:47
а Света в свою очередь взяла конфиг у Димы Кравчука. который конфиг делал под один конкретный бенчмарк. но поскольку никто не шарит, в любой непонятной ситуации все берут его конфиг

KOT
20.12.2017
19:09:39
Ну я большую часть закомитил, оставил некоторые аспекты которые мне понятны

Al
20.12.2017
19:10:23
Я как то пробовал дамбить гигабайты с лперативы на диск и назад... это не передать как грустно

Google

Anton
20.12.2017
19:10:50
кстати, инстансы тебе тут тоже вряд ли помогут буфер пула, ибо делать собираешься в гордом одиночестве

Al
20.12.2017
19:12:27
В чем смысл вообще. Это же не динамический анализ горячих данных. Все статично. Нафига в оперативу перетаскивать

KOT
20.12.2017
19:13:24

Alexey
20.12.2017
19:17:00

Al
20.12.2017
19:17:20
Вот вот заселекти все

Alexey
20.12.2017
19:17:52
а потом ещё select count(*) from t force key (primary) и вжух!

Al
20.12.2017
19:17:53
Ток не торопись. Это будет долго

KOT
20.12.2017
19:21:47

Alexey
20.12.2017
19:35:25
подозреваю, что секрет фокуса в random vs sequential чтении на стареньких шуршащих винтах

Google

KOT
20.12.2017
19:36:56

Alexey
20.12.2017
19:37:42
ну тут нужно explain смотреть. и метрики. помылся бы ты, ёжик. в смысле, наняли бы вы себе уже DBA, а?

KOT
20.12.2017
19:40:11

Al
20.12.2017
19:40:47

KOT
20.12.2017
19:41:10
Простой совершенно ведь ясно, что если бы я мог нанять ДБА, я бы не ебался с хтим всем сам. И вот эта фраза, она меня ломает на уровне логики.

Al
20.12.2017
19:45:13

KOT
20.12.2017
19:45:32

Anton
20.12.2017
19:46:20
Ой чую я фулл-скан в эксплейне

Al
20.12.2017
19:47:22

Anton
20.12.2017
19:47:39
ВВы что, старые знакомые?

KOT
20.12.2017
19:47:48
И эта задача из тестового задания на анализ данных.

Al
20.12.2017
19:48:08

Anton
20.12.2017
19:48:40
ну не знаю, я тут ещё салага)))

aster
20.12.2017
19:48:50
Я бы тоже грузовик поводил. Но не в рф

Al
20.12.2017
19:49:09

KOT
20.12.2017
19:49:31

Anton
20.12.2017
19:49:33
Котяра, покажи эксплейн

KOT
20.12.2017
19:49:39
Ща

Al
20.12.2017
19:49:50

Google

Al
20.12.2017
19:49:57
Красота же

Anton
20.12.2017
19:50:26
Ты в лаплаандии?

aster
20.12.2017
19:50:40
Красота же
А то.
Я так в мурманск из питера люблю ездить

KOT
20.12.2017
19:51:12

Anton
20.12.2017
19:52:34
@Kote_de_Woland ну вот, тайп=олл же))))

Al
20.12.2017
19:52:55

Anton
20.12.2017
19:53:01
ттак шо твоя выборка тестовая и небыстрая

Alexey
20.12.2017
19:53:59
подожди. это вот как avito_support_tickets. ты из авито штоле?

aster
20.12.2017
19:54:02

Al
20.12.2017
19:54:46

Alexey
20.12.2017
19:55:02
ух, отлегло

Al
20.12.2017
19:55:08

Anton
20.12.2017
19:55:20

aster
20.12.2017
19:56:37

KOT
20.12.2017
19:56:55

Anton
20.12.2017
19:57:13
Тест твой тока меньшее количество скалярок дал. И всё

KOT
20.12.2017
19:57:30

Google

Al
20.12.2017
19:57:48

KOT
20.12.2017
19:58:01

Anton
20.12.2017
19:58:11
В авито все хвалиились, что ушли в слона. Странно, что они там в мускуле забыли

KOT
20.12.2017
19:59:03

Al
20.12.2017
19:59:20

Anton
20.12.2017
20:00:01

KOT
20.12.2017
20:00:04

Anton
20.12.2017
20:00:23

Admin
ERROR: S client not available

KOT
20.12.2017
20:00:38

Anton
20.12.2017
20:00:45
@Kote_de_Woland начни с запроса
4 огромных скалярки, и только одна с полным покрытием

?
20.12.2017
20:01:03

KOT
20.12.2017
20:02:01

Al
20.12.2017
20:02:24

Anton
20.12.2017
20:02:49
смотри. У тебя под каждую строку выполняется 4(!) запроса с агрегацией. И только один из них с покрывающим индексом. Попробуй по сттруктуре глянуть, можно ли уменьшить их количество
количество селектов у тебяполучается 1600000. Каждый из них с агрегацией. Многовато

KOT
20.12.2017
20:04:43

Anton
20.12.2017
20:05:09
ну, це 2 запроса

Google

Anton
20.12.2017
20:05:21
И вих можно переписать в один с двумя агрегациями
И потом распарсить через сабстринг_индекс какой-нибудь
будет на дохуя быстрее

KOT
20.12.2017
20:06:00
Проблема в том, что ьам даже один селект уже всё тормазит, а при групировке вообще ад выходит

Anton
20.12.2017
20:06:58
Естественно. Группировка такого количесства строк для мускуля даром не проходит. Тока недавно обращался к @alexey_kopytov с тем, что плохо группируют последние версии))))
постарайся из 4 скалярных подзапросов сделать один
Уже будет приятнее

KOT
20.12.2017
20:08:10
Тут не столько групировка
Секунду, дай перекину данные
По сути зависание начинается при поиске среднего значения

Anton
20.12.2017
20:13:01
Ок, раз тебе всё не нравится - сделай процедурку. Добавь столбцы к таблице, сделай по ней курсор, высчитывай данные и апдейть.
ПОдход гавно, зато гарантированно ничего никогда не отваливается и не блокируется и не зажирает ресурсы

KOT
20.12.2017
20:14:37

Anton
20.12.2017
20:14:57
я на самом деле не от балды сказал

KOT
20.12.2017
20:15:15
И пустить в 8 потоков колбасить

Anton
20.12.2017
20:15:32
У меня при групапировке от пары миллионов строк такой подход оказывается быстрее.

KOT
20.12.2017
20:16:11
Да я тебе верю, сам к тому же пришёл, но лелеял надежду, что я где-то тупанул и можно ускорить

Al
20.12.2017
20:16:50

Anton
20.12.2017
20:18:11