@devops_ru

Страница 4527 из 4568
Антон
19.10.2018
21:14:11
не понял вопрос
Аккумулу смотрел?

Gor
19.10.2018
21:14:15
неа

щя гугльну что это

Антон
19.10.2018
21:14:29
неа
Apache Accumulo + Geomesa

Google
Gor
19.10.2018
21:14:58
а hadoop

Антон
19.10.2018
21:15:05
щя гугльну что это
Начинай с геомесы, это ядро. Аккумуло просто столбцовая БД, в которой все хранится

Gor
19.10.2018
21:15:09
ребят вы же знаете как там достигается performance да?

Антон
19.10.2018
21:15:10
а hadoop
Можно без

Gor
19.10.2018
21:15:56
я сделал на 400к - 1-2 сек!

на монго!

Антон
19.10.2018
21:16:15
я сделал на 400к - 1-2 сек!
Не это ты крут, никто не спорит))))

Gor
19.10.2018
21:16:30
дальше потом правда у клиента будет база на 10м

вот там шардинг уже пойдет. главное ключ удачно подобрать

ибо сей дивный pipeline работает с sharding )))

Антон
19.10.2018
21:17:04
Vasiliy
19.10.2018
21:17:06
дальше потом правда у клиента будет база на 10м
Решение крутое, но может выкинуть нахрен монгу ?)

Google
Антон
19.10.2018
21:17:26
Да ну вас, человек, по сути, создал новый продукт)

Gor
19.10.2018
21:17:44
Решение крутое, но может выкинуть нахрен монгу ?)
microservice api завязка. там plain documents нет зависиомстей. нафига мутить SQL?

Расшарь для всех)))
сделаю! там надо теперь навести красивости - подержка 2d, сферических , points, regions

вот это все красиво обработать

Vasiliy
19.10.2018
21:18:54
microservice api завязка. там plain documents нет зависиомстей. нафига мутить SQL?
ну вот из моего личного опыта с ростом числа документов монге становится совсем плохо. удаление монги сильно решает проблему. куда смотреть - по специфике приложения.

Gor
19.10.2018
21:18:54
и можно пулять патч в монго

Gor
19.10.2018
21:19:17
3д, нафига твое 2д нужно?
зависит от задач. индексы и такие и такие есть

значит и поддержка должна быть такая же



вот картинка с тестовых данных на лаптопе. щя собираю на сервере монгу, буду заменять и тестить уже не прототип н ареальных данных

Антон
19.10.2018
21:20:18
сделаю! там надо теперь навести красивости - подержка 2d, сферических , points, regions
?глянь геомесу, там есть ошень красивый и, сука ОЧЕНЬ, дорогой пример с поточными данными без спарка)

Антон
19.10.2018
21:20:56
Железа похер, этож жаба

Gor
19.10.2018
21:21:20
кстати про поточные - аналогично выкинул любую сортировку - вход - выход. минимальный напряг на память

Антон
19.10.2018
21:21:29
В облако кинул, само расщеперится когда надо)

Google
Gor
19.10.2018
21:21:52
я не уверен под "сырые" термином. может разное имеем ввиду

Антон
19.10.2018
21:22:37
Gor
19.10.2018
21:22:49
чисто чтение таблицы (после $match- это же pipeline!) вход документ - выход групировка

Антон
19.10.2018
21:23:05
гляну обязательно
Да, до сих пор этот плагин...сука, на тот момент он один стоил 50к зелёных

Gor
19.10.2018
21:23:16
хохо

чую это будет бомба)

там же все фишки монго агрегации остаются)

Антон
19.10.2018
21:24:09
чую это будет бомба)
? чую ток где-то собака зарыта, не может быть, чтобы ее раньше никто не пробовал

Gor
19.10.2018
21:24:38
или как обычно. нафиг не надо - вот есть готовый продукт. покусался и пошел платить

хайпы они такие

Антон
19.10.2018
21:25:05
Ну как нашел, собрал))))

Gor
19.10.2018
21:25:06
я ведь по сути сделал потому что я могу)

только потому полез делать

Vasiliy
19.10.2018
21:25:34
и это круто ! :)

Антон
19.10.2018
21:26:07
я ведь по сути сделал потому что я могу)
Еще...можешь посмотреть...ммм... сча найду

Gor
19.10.2018
21:26:32
вот еще бы кто тупо помог с оформлением и всякими юзеркейсами... теперь еще 9 раз столько же времени доводить код до более широкого использования а не как я сделал под 1 задачу

2d, 3d multi regions, regions -а 2 последних - это пересечения, или игнорировать или не игнорировать. генерить bounds или region

столько зараза рутинны....

Google
Gor
19.10.2018
21:29:47
https://www.mapbox.com
Знакомое, щя малого из сади а заберу - гляну

Я на фронте поверх Гугл мапы вывожу

У меня в профиле ссылка на гитхаб

Хотя лучше так github.com/itpatrol/mongo

Бранч groupByLocation

Антон
19.10.2018
21:31:37
Хотя лучше так github.com/itpatrol/mongo
Апрув на публикацию

Admin
ERROR: S client not available

Антон
19.10.2018
21:31:55
Буду благодарен.
Напиши мне завтра, а то я уже сплю

Gor
19.10.2018
21:32:05
Ой, то есть завтра

Открою отдельно issues что б как то сгруппировать работу по патча можно было

Gor
19.10.2018
21:33:36
Я имел ввиду в репо гитхабовские чтоб записывать что надо сделать

Они отключены по умолчанию вроде

Решил погуглить accumulo group by location. Выходят только locality group но это совсем не то

Google
Антон
19.10.2018
22:18:48
Gor
19.10.2018
22:22:36
Аккумула только хранилка, вся логика в геомессе
Тогда группировка после выборки получается?

Или все же на уровне запросов

Антон
19.10.2018
22:24:10
Или все же на уровне запросов
Емнип до выборки, геомесса формирует и пуляет запрос, а не перебирает данные...если мы об одном и том же

Gor
19.10.2018
22:24:21
Тут ключевой вопрос. Если у тебя выборка на 400к (или более записей) то группировка програмно вне базу данных - будет минимум равно времени прохода цикла + скорости передачи данных от базы (а в данном случае со всех год сразу, где данные) до места обработки

Емнип до выборки, геомесса формирует и пуляет запрос, а не перебирает данные...если мы об одном и том же
Вот, да об одном и том же. И я не нашёл пока как формировать запрос или хотя бы упоминание что данные должны быть сгруппированы по дельте

Gor
19.10.2018
22:25:47
Тоесть если допустим дельта 100 метров то те locations которые к друг другу ближе чем 100 метров, группируются в 1 запись

Gor
19.10.2018
22:26:04
В геомессе смотришь?
В геомесе тоже смотрел, там типа код пишешь нашёл

Не понятно или он выполняется на уровне базы или все же в самой месе

Антон
19.10.2018
22:26:46
В геомесе тоже смотрел, там типа код пишешь нашёл
?у нас схемы разные получаются, я это делал через spark sql

Gor
19.10.2018
22:27:11
Я так понимаю spark это диалект?

Антон
19.10.2018
22:27:54
Я так понимаю spark это диалект?
Apache Spark (this is part of hadoop)

Gor
19.10.2018
22:28:07
Читаю

Антон
19.10.2018
22:28:26
Я так понимаю spark это диалект?
По сути обычный sql, другое дело, что обернут в спарк интерпретатор

Емнип ты посылаешь запрос, он прилетает в базу и обработка, тебе выплёвывает данные...+ Аккумула столбцовая, она будет быстрее строчной работать с геоданными

+ геомеса немного меняет принцип построения индекса аккумулы, это, кажется, в параграфе про Z-index будет

Gor
19.10.2018
22:30:52
По сути обычный sql, другое дело, что обернут в спарк интерпретатор
С птичьего взгляда - spark sql это по сути модуль который позволяет управлять чтением таблиц бинарно, так?

Из твоего опыта, например кастомные counter по данным выборки делал?

Антон
19.10.2018
22:31:49
Gor
19.10.2018
22:32:10
Вот я и хочу понять в каком слое оно работает:)

Страница 4527 из 4568