@devops_ru

Страница 4527 из 4568
Антон
19.10.2018
21:14:11
не понял вопрос
Аккумулу смотрел?

Gor
19.10.2018
21:14:15
неа

щя гугльну что это

Антон
19.10.2018
21:14:29
неа
Apache Accumulo + Geomesa

Google
Gor
19.10.2018
21:14:58
а hadoop

Антон
19.10.2018
21:15:05
щя гугльну что это
Начинай с геомесы, это ядро. Аккумуло просто столбцовая БД, в которой все хранится

Gor
19.10.2018
21:15:09
ребят вы же знаете как там достигается performance да?

Антон
19.10.2018
21:15:10
а hadoop
Можно без

Gor
19.10.2018
21:15:56
я сделал на 400к - 1-2 сек!

на монго!

Антон
19.10.2018
21:16:15
я сделал на 400к - 1-2 сек!
Не это ты крут, никто не спорит))))

Gor
19.10.2018
21:16:30
дальше потом правда у клиента будет база на 10м

вот там шардинг уже пойдет. главное ключ удачно подобрать

ибо сей дивный pipeline работает с sharding )))

Антон
19.10.2018
21:17:04
Vasiliy
19.10.2018
21:17:06
дальше потом правда у клиента будет база на 10м
Решение крутое, но может выкинуть нахрен монгу ?)

Google
Антон
19.10.2018
21:17:26
Да ну вас, человек, по сути, создал новый продукт)

Gor
19.10.2018
21:17:44
Решение крутое, но может выкинуть нахрен монгу ?)
microservice api завязка. там plain documents нет зависиомстей. нафига мутить SQL?

Расшарь для всех)))
сделаю! там надо теперь навести красивости - подержка 2d, сферических , points, regions

вот это все красиво обработать

Vasiliy
19.10.2018
21:18:54
microservice api завязка. там plain documents нет зависиомстей. нафига мутить SQL?
ну вот из моего личного опыта с ростом числа документов монге становится совсем плохо. удаление монги сильно решает проблему. куда смотреть - по специфике приложения.

Gor
19.10.2018
21:18:54
и можно пулять патч в монго

Gor
19.10.2018
21:19:17
3д, нафига твое 2д нужно?
зависит от задач. индексы и такие и такие есть

значит и поддержка должна быть такая же



вот картинка с тестовых данных на лаптопе. щя собираю на сервере монгу, буду заменять и тестить уже не прототип н ареальных данных

Антон
19.10.2018
21:20:18
сделаю! там надо теперь навести красивости - подержка 2d, сферических , points, regions
?глянь геомесу, там есть ошень красивый и, сука ОЧЕНЬ, дорогой пример с поточными данными без спарка)

Антон
19.10.2018
21:20:56
Железа похер, этож жаба

Gor
19.10.2018
21:21:20
кстати про поточные - аналогично выкинул любую сортировку - вход - выход. минимальный напряг на память

Антон
19.10.2018
21:21:29
В облако кинул, само расщеперится когда надо)

Google
Gor
19.10.2018
21:21:52
я не уверен под "сырые" термином. может разное имеем ввиду

Антон
19.10.2018
21:22:37
Gor
19.10.2018
21:22:49
чисто чтение таблицы (после $match- это же pipeline!) вход документ - выход групировка

Антон
19.10.2018
21:23:05
гляну обязательно
Да, до сих пор этот плагин...сука, на тот момент он один стоил 50к зелёных

Gor
19.10.2018
21:23:16
хохо

чую это будет бомба)

там же все фишки монго агрегации остаются)

Антон
19.10.2018
21:24:09
чую это будет бомба)
? чую ток где-то собака зарыта, не может быть, чтобы ее раньше никто не пробовал

Gor
19.10.2018
21:24:38
или как обычно. нафиг не надо - вот есть готовый продукт. покусался и пошел платить

хайпы они такие

Антон
19.10.2018
21:24:58
Ну как нашел, собрал))))

Gor
19.10.2018
21:25:06
я ведь по сути сделал потому что я могу)

только потому полез делать

Vasiliy
19.10.2018
21:25:34
и это круто ! :)

Антон
19.10.2018
21:26:07
я ведь по сути сделал потому что я могу)
Еще...можешь посмотреть...ммм... сча найду

Gor
19.10.2018
21:26:32
вот еще бы кто тупо помог с оформлением и всякими юзеркейсами... теперь еще 9 раз столько же времени доводить код до более широкого использования а не как я сделал под 1 задачу

2d, 3d multi regions, regions -а 2 последних - это пересечения, или игнорировать или не игнорировать. генерить bounds или region

столько зараза рутинны....

Google
Gor
19.10.2018
21:29:47
https://www.mapbox.com
Знакомое, щя малого из сади а заберу - гляну

Я на фронте поверх Гугл мапы вывожу

У меня в профиле ссылка на гитхаб

Хотя лучше так github.com/itpatrol/mongo

Бранч groupByLocation

Антон
19.10.2018
21:31:37
Хотя лучше так github.com/itpatrol/mongo
Апрув на публикацию

Буду благодарен.
Напиши мне завтра, а то я уже сплю

Gor
19.10.2018
21:32:05
Ой, то есть завтра

Открою отдельно issues что б как то сгруппировать работу по патча можно было

Gor
19.10.2018
21:33:36
Я имел ввиду в репо гитхабовские чтоб записывать что надо сделать

Они отключены по умолчанию вроде

Решил погуглить accumulo group by location. Выходят только locality group но это совсем не то

Антон
19.10.2018
22:18:48
Google
Gor
19.10.2018
22:22:36
Аккумула только хранилка, вся логика в геомессе
Тогда группировка после выборки получается?

Или все же на уровне запросов

Антон
19.10.2018
22:24:10
Или все же на уровне запросов
Емнип до выборки, геомесса формирует и пуляет запрос, а не перебирает данные...если мы об одном и том же

Gor
19.10.2018
22:24:21
Тут ключевой вопрос. Если у тебя выборка на 400к (или более записей) то группировка програмно вне базу данных - будет минимум равно времени прохода цикла + скорости передачи данных от базы (а в данном случае со всех год сразу, где данные) до места обработки

Емнип до выборки, геомесса формирует и пуляет запрос, а не перебирает данные...если мы об одном и том же
Вот, да об одном и том же. И я не нашёл пока как формировать запрос или хотя бы упоминание что данные должны быть сгруппированы по дельте

Gor
19.10.2018
22:25:47
Тоесть если допустим дельта 100 метров то те locations которые к друг другу ближе чем 100 метров, группируются в 1 запись

Gor
19.10.2018
22:26:04
В геомессе смотришь?
В геомесе тоже смотрел, там типа код пишешь нашёл

Не понятно или он выполняется на уровне базы или все же в самой месе

Антон
19.10.2018
22:26:46
В геомесе тоже смотрел, там типа код пишешь нашёл
?у нас схемы разные получаются, я это делал через spark sql

Gor
19.10.2018
22:27:11
Я так понимаю spark это диалект?

Антон
19.10.2018
22:27:54
Я так понимаю spark это диалект?
Apache Spark (this is part of hadoop)

Gor
19.10.2018
22:28:07
Читаю

Антон
19.10.2018
22:28:26
Я так понимаю spark это диалект?
По сути обычный sql, другое дело, что обернут в спарк интерпретатор

Емнип ты посылаешь запрос, он прилетает в базу и обработка, тебе выплёвывает данные...+ Аккумула столбцовая, она будет быстрее строчной работать с геоданными

+ геомеса немного меняет принцип построения индекса аккумулы, это, кажется, в параграфе про Z-index будет

Gor
19.10.2018
22:30:52
По сути обычный sql, другое дело, что обернут в спарк интерпретатор
С птичьего взгляда - spark sql это по сути модуль который позволяет управлять чтением таблиц бинарно, так?

Из твоего опыта, например кастомные counter по данным выборки делал?

Антон
19.10.2018
22:31:49
Gor
19.10.2018
22:32:10
Вот я и хочу понять в каком слое оно работает:)

Страница 4527 из 4568