
Антон
19.10.2018
21:14:11

Gor
19.10.2018
21:14:15
неа
щя гугльну что это

Антон
19.10.2018
21:14:29
неа
Apache Accumulo + Geomesa

Google

Gor
19.10.2018
21:14:58
а hadoop

Антон
19.10.2018
21:15:05
щя гугльну что это
Начинай с геомесы, это ядро. Аккумуло просто столбцовая БД, в которой все хранится

Gor
19.10.2018
21:15:09
ребят вы же знаете как там достигается performance да?

Антон
19.10.2018
21:15:10

Gor
19.10.2018
21:15:56
я сделал на 400к - 1-2 сек!
на монго!

Антон
19.10.2018
21:16:15

Gor
19.10.2018
21:16:30
дальше потом правда у клиента будет база на 10м
вот там шардинг уже пойдет. главное ключ удачно подобрать
ибо сей дивный pipeline работает с sharding )))

Антон
19.10.2018
21:17:04

Vasiliy
19.10.2018
21:17:06

Google

Andrew
19.10.2018
21:17:24

Антон
19.10.2018
21:17:26
Да ну вас, человек, по сути, создал новый продукт)

Gor
19.10.2018
21:17:44
Расшарь для всех)))
сделаю! там надо теперь навести красивости - подержка 2d, сферических , points, regions
вот это все красиво обработать

Vasiliy
19.10.2018
21:18:54

Gor
19.10.2018
21:18:54
и можно пулять патч в монго

Антон
19.10.2018
21:19:00

Gor
19.10.2018
21:19:17
значит и поддержка должна быть такая же
вот картинка с тестовых данных на лаптопе. щя собираю на сервере монгу, буду заменять и тестить уже не прототип н ареальных данных

Антон
19.10.2018
21:20:18

Gor
19.10.2018
21:20:46

Антон
19.10.2018
21:20:56
Железа похер, этож жаба

Gor
19.10.2018
21:21:20
кстати про поточные - аналогично выкинул любую сортировку - вход - выход. минимальный напряг на память

Антон
19.10.2018
21:21:29
В облако кинул, само расщеперится когда надо)

Google

Gor
19.10.2018
21:21:52
я не уверен под "сырые" термином. может разное имеем ввиду

Антон
19.10.2018
21:22:37

Gor
19.10.2018
21:22:49
чисто чтение таблицы (после $match- это же pipeline!) вход документ - выход групировка

Антон
19.10.2018
21:23:05
гляну обязательно
Да, до сих пор этот плагин...сука, на тот момент он один стоил 50к зелёных

Gor
19.10.2018
21:23:16
хохо
чую это будет бомба)
там же все фишки монго агрегации остаются)

Антон
19.10.2018
21:24:09
чую это будет бомба)
? чую ток где-то собака зарыта, не может быть, чтобы ее раньше никто не пробовал

Gor
19.10.2018
21:24:38
или как обычно. нафиг не надо - вот есть готовый продукт. покусался и пошел платить
хайпы они такие

Антон
19.10.2018
21:24:58
Ну как нашел, собрал))))

Gor
19.10.2018
21:25:06
я ведь по сути сделал потому что я могу)
только потому полез делать

Vasiliy
19.10.2018
21:25:34
и это круто ! :)

Антон
19.10.2018
21:26:07

Gor
19.10.2018
21:26:32
вот еще бы кто тупо помог с оформлением и всякими юзеркейсами... теперь еще 9 раз столько же времени доводить код до более широкого использования а не как я сделал под 1 задачу
2d, 3d multi regions, regions -а 2 последних - это пересечения, или игнорировать или не игнорировать. генерить bounds или region
столько зараза рутинны....

Google

Антон
19.10.2018
21:28:13

Gor
19.10.2018
21:29:47
Я на фронте поверх Гугл мапы вывожу
У меня в профиле ссылка на гитхаб
Хотя лучше так github.com/itpatrol/mongo
Бранч groupByLocation

Антон
19.10.2018
21:31:37

Gor
19.10.2018
21:32:05
Ой, то есть завтра
Открою отдельно issues что б как то сгруппировать работу по патча можно было

Антон
19.10.2018
21:33:22

Gor
19.10.2018
21:33:36
Я имел ввиду в репо гитхабовские чтоб записывать что надо сделать
Они отключены по умолчанию вроде
Решил погуглить accumulo group by location. Выходят только locality group но это совсем не то

Антон
19.10.2018
22:18:48

Google

Gor
19.10.2018
22:22:36
Или все же на уровне запросов

Антон
19.10.2018
22:24:10

Gor
19.10.2018
22:24:21
Тут ключевой вопрос. Если у тебя выборка на 400к (или более записей) то группировка програмно вне базу данных - будет минимум равно времени прохода цикла + скорости передачи данных от базы (а в данном случае со всех год сразу, где данные) до места обработки

Антон
19.10.2018
22:25:24

Gor
19.10.2018
22:25:47
Тоесть если допустим дельта 100 метров то те locations которые к друг другу ближе чем 100 метров, группируются в 1 запись

Антон
19.10.2018
22:25:57

Gor
19.10.2018
22:26:04
Не понятно или он выполняется на уровне базы или все же в самой месе

Антон
19.10.2018
22:26:46

Gor
19.10.2018
22:27:11
Я так понимаю spark это диалект?

Антон
19.10.2018
22:27:54

Gor
19.10.2018
22:28:07
Читаю

Антон
19.10.2018
22:28:26
Емнип ты посылаешь запрос, он прилетает в базу и обработка, тебе выплёвывает данные...+ Аккумула столбцовая, она будет быстрее строчной работать с геоданными
+ геомеса немного меняет принцип построения индекса аккумулы, это, кажется, в параграфе про Z-index будет

Gor
19.10.2018
22:30:52
Из твоего опыта, например кастомные counter по данным выборки делал?

Антон
19.10.2018
22:31:49

Gor
19.10.2018
22:32:10
Вот я и хочу понять в каком слое оно работает:)