
Антон
19.10.2018
21:14:11

Gor
19.10.2018
21:14:15
неа
щя гугльну что это

Антон
19.10.2018
21:14:29
неа
Apache Accumulo + Geomesa

Google

Gor
19.10.2018
21:14:58
а hadoop

Антон
19.10.2018
21:15:05
щя гугльну что это
Начинай с геомесы, это ядро. Аккумуло просто столбцовая БД, в которой все хранится

Gor
19.10.2018
21:15:09
ребят вы же знаете как там достигается performance да?

Антон
19.10.2018
21:15:10

Gor
19.10.2018
21:15:56
я сделал на 400к - 1-2 сек!
на монго!

Антон
19.10.2018
21:16:15

Gor
19.10.2018
21:16:30
дальше потом правда у клиента будет база на 10м
вот там шардинг уже пойдет. главное ключ удачно подобрать
ибо сей дивный pipeline работает с sharding )))

Антон
19.10.2018
21:17:04

Vasiliy
19.10.2018
21:17:06

Google

Andrew
19.10.2018
21:17:24

Антон
19.10.2018
21:17:26
Да ну вас, человек, по сути, создал новый продукт)

Gor
19.10.2018
21:17:44
Расшарь для всех)))
сделаю! там надо теперь навести красивости - подержка 2d, сферических , points, regions
вот это все красиво обработать

Vasiliy
19.10.2018
21:18:54

Gor
19.10.2018
21:18:54
и можно пулять патч в монго

Антон
19.10.2018
21:19:00

Gor
19.10.2018
21:19:17
значит и поддержка должна быть такая же
вот картинка с тестовых данных на лаптопе. щя собираю на сервере монгу, буду заменять и тестить уже не прототип н ареальных данных

Антон
19.10.2018
21:20:18

Gor
19.10.2018
21:20:46

Антон
19.10.2018
21:20:56
Железа похер, этож жаба

Gor
19.10.2018
21:21:20
кстати про поточные - аналогично выкинул любую сортировку - вход - выход. минимальный напряг на память

Антон
19.10.2018
21:21:29
В облако кинул, само расщеперится когда надо)

Google

Gor
19.10.2018
21:21:52
я не уверен под "сырые" термином. может разное имеем ввиду

Антон
19.10.2018
21:22:37

Gor
19.10.2018
21:22:49
чисто чтение таблицы (после $match- это же pipeline!) вход документ - выход групировка

Антон
19.10.2018
21:23:05
гляну обязательно
Да, до сих пор этот плагин...сука, на тот момент он один стоил 50к зелёных

Gor
19.10.2018
21:23:16
хохо
чую это будет бомба)
там же все фишки монго агрегации остаются)

Антон
19.10.2018
21:24:09
чую это будет бомба)
? чую ток где-то собака зарыта, не может быть, чтобы ее раньше никто не пробовал

Gor
19.10.2018
21:24:38
или как обычно. нафиг не надо - вот есть готовый продукт. покусался и пошел платить
хайпы они такие

Антон
19.10.2018
21:24:58

Антон
19.10.2018
21:25:05
Ну как нашел, собрал))))

Gor
19.10.2018
21:25:06
я ведь по сути сделал потому что я могу)
только потому полез делать

Vasiliy
19.10.2018
21:25:34
и это круто ! :)

Антон
19.10.2018
21:26:07

Gor
19.10.2018
21:26:32
вот еще бы кто тупо помог с оформлением и всякими юзеркейсами... теперь еще 9 раз столько же времени доводить код до более широкого использования а не как я сделал под 1 задачу
2d, 3d multi regions, regions -а 2 последних - это пересечения, или игнорировать или не игнорировать. генерить bounds или region
столько зараза рутинны....

Google

Антон
19.10.2018
21:28:13

Gor
19.10.2018
21:29:47
Я на фронте поверх Гугл мапы вывожу
У меня в профиле ссылка на гитхаб
Хотя лучше так github.com/itpatrol/mongo
Бранч groupByLocation

Антон
19.10.2018
21:31:37

Admin
ERROR: S client not available

Антон
19.10.2018
21:31:55

Gor
19.10.2018
21:32:05
Ой, то есть завтра
Открою отдельно issues что б как то сгруппировать работу по патча можно было

Антон
19.10.2018
21:33:22

Gor
19.10.2018
21:33:36
Я имел ввиду в репо гитхабовские чтоб записывать что надо сделать
Они отключены по умолчанию вроде
Решил погуглить accumulo group by location. Выходят только locality group но это совсем не то

Google

Антон
19.10.2018
22:18:48

Gor
19.10.2018
22:22:36
Или все же на уровне запросов

Антон
19.10.2018
22:24:10

Gor
19.10.2018
22:24:21
Тут ключевой вопрос. Если у тебя выборка на 400к (или более записей) то группировка програмно вне базу данных - будет минимум равно времени прохода цикла + скорости передачи данных от базы (а в данном случае со всех год сразу, где данные) до места обработки

Антон
19.10.2018
22:25:24

Gor
19.10.2018
22:25:47
Тоесть если допустим дельта 100 метров то те locations которые к друг другу ближе чем 100 метров, группируются в 1 запись

Антон
19.10.2018
22:25:57

Gor
19.10.2018
22:26:04
Не понятно или он выполняется на уровне базы или все же в самой месе

Антон
19.10.2018
22:26:46

Gor
19.10.2018
22:27:11
Я так понимаю spark это диалект?

Антон
19.10.2018
22:27:54

Gor
19.10.2018
22:28:07
Читаю

Антон
19.10.2018
22:28:26
Емнип ты посылаешь запрос, он прилетает в базу и обработка, тебе выплёвывает данные...+ Аккумула столбцовая, она будет быстрее строчной работать с геоданными
+ геомеса немного меняет принцип построения индекса аккумулы, это, кажется, в параграфе про Z-index будет

Gor
19.10.2018
22:30:52
Из твоего опыта, например кастомные counter по данным выборки делал?

Антон
19.10.2018
22:31:49

Gor
19.10.2018
22:32:10
Вот я и хочу понять в каком слое оно работает:)