
Grigory
08.02.2018
10:44:33
хотя может это связано с тем что запилили плагин к жупитеру свой чтоб можн было обрабатывать данные и на карте прям в ноутбуке показывать

Nick
08.02.2018
11:24:20
https://m.habrahabr.ru/company/devimteam/blog/348092/
Оцените чтоль статью )

Dmitry
08.02.2018
11:25:44
Принял участие?

Google

Nick
08.02.2018
11:26:35
Нет
Но чуваки наши писали
Которые не знают зеплина и прочего

Dmitry
08.02.2018
11:28:23
ну вон Давыденко целый кэн
а ты ему со своим зепелином
но чет не понял смысла, типа предсказывать решение андеррайтера? А почему просто не скорить?
выполнить проект в сжатые сроки и принять во внимание некоторые особенности бизнес-целей
но ваще прикольно что auc здоровенный

Nick
08.02.2018
11:31:30
Поставьте автору в карму плюсиком чтоль
Она грустит)

Dmitry
08.02.2018
11:32:00
было бы чем
меняю плюсик на инвайт

Google

Nick
08.02.2018
11:32:28
У меня мало кармы

Dmitry
08.02.2018
11:36:25
нету ручек - нет конфеты

KrivdaAllStars
08.02.2018
11:39:23

Nick
08.02.2018
11:44:23
Будешь
И автор статьи будет ))
Авторша)

KrivdaAllStars
08.02.2018
11:47:38
еееезззз будеш

Alexey
08.02.2018
12:14:30
в статье слишкоммногабукаф, а смысл при просмотре по диагонали ускользнул.

Nick
08.02.2018
12:20:38
Смысла там нет )

Daniel
08.02.2018
12:21:05

Nick
08.02.2018
12:22:57
угу)

Pavel
08.02.2018
18:26:21

Nick
08.02.2018
18:27:41

Albert
08.02.2018
19:02:40
Привет! Народ, подскажите плиз, кто работал с Flink-ом - как соединить два потока последовательно? https://stackoverflow.com/questions/48692658/how-to-concatenate-two-streams-in-apache-flink

Daniel
08.02.2018
19:04:23
перетащу детали и сюда
Если кратко, то нужно сигнализировать об окончании потока для закрытия накопленного состояния (сегментация на from_time, to_time результатов поиска шаблонов в данных timeseries)
Исходный поток строится из Sql запроса, то есть на практике ограничен
Возможно стоит DataSet использовать для этого, но я там тоже не увидел подобной возможности

Albert
08.02.2018
19:04:43
Спасибо)

Daniel
08.02.2018
19:05:56
а что значит from_time to_time? это ограничение по времени в данных или временное окно?

Google

Daniel
08.02.2018
19:08:06
или кейс такой, что sql периодически выполняется и сливается в стрим, где обрабатывается и результат сливается дальше?
сделаю гипотезу, что 2ой стрим не нужен и можно разрулить, например, через https://ci.apache.org/projects/flink/flink-docs-release-1.4/dev/stream/operators/windows.html#global-windows

Albert
08.02.2018
19:31:26

Daniel
08.02.2018
19:40:17

Albert
08.02.2018
19:40:56

Daniel
08.02.2018
19:43:44

Albert
08.02.2018
19:43:44
Или может я упускаю что то очевидное.. Не соображу никак)

Artem
08.02.2018
20:20:55
на эту тему очень много написано здесь https://www.oreilly.com/ideas/the-world-beyond-batch-streaming-102

Albert
09.02.2018
08:20:15

Andrey
09.02.2018
08:22:46
#job #Moscow
Всем привет!
В нашу команду http://cleverdata.ru/about/
ищем Python-разработчика. Кто хочет интересные задачи и новый вызов - welcome.
http://bit.ly/2Ebu0BP - подробности здесь
Можно откликаться на сайте или писать в личные сообщения

Albert
09.02.2018
11:52:39
Чувак из Флинка говорит, что, к сожалению, склеить потоки пока не возможно. https://stackoverflow.com/questions/48692658/how-to-concatenate-two-streams-in-apache-flink

Shazo
09.02.2018
12:13:01
Приветствую.
Можете подсказать, как определить корректные значения для параметра hbase.regionserver.handler.count?

Artem
09.02.2018
13:43:33

Daniel
09.02.2018
14:06:22
имхо, такой сценарий априори с дефектом
или интсрумент не потоковый нужен, или задачу надо решать иначе
я потому и допрашивал про детали, по-прежнему склоняюсь к мнению, что 2ой поток не нужен и нужны и триггеры


Albert
09.02.2018
14:09:45
Да, согласен, я сейчас копаю в сторону окон, кажется на SessionWIndow хорошо ложится. Вопрос на SO в процессе поиска решения возник, уже не актуален для задачи
имхо, такой сценарий априори с дефектом
или интсрумент не потоковый нужен, или задачу надо решать иначе
я потому и допрашивал про детали, по-прежнему склоняюсь к мнению, что 2ой поток не нужен и нужны и триггеры
На SessionWIndow так же не работает как и простой flatMap - теряет последнюю цепочку Success-ов. То есть на Success 1, Success 2, Success 100, Success 101, END возвращает только Segment(1, 2). Но и триггеры здесь тоже не сработают, не определишь же окончание окна, там нет никакого терминального состояния за которое можно уцепиться, или я ошибаюсь?
Сформулировал на SO https://stackoverflow.com/questions/48709208/how-to-accumulate-state-until-the-end-in-apache-flink

Nick
10.02.2018
18:53:31
Кстати, раз мы тут говорили о зеплине, а кто-нибудь пробовал даталор?

Google

Dmitry
10.02.2018
18:54:53
Линк в студию

Nick
10.02.2018
18:55:22
datalore.io

Daniel
10.02.2018
19:02:28
джетбрейнз, хм
сам то пробовал?
беглый взгляд говорит, что там только облако с питоном

Nick
10.02.2018
20:53:22
Сам тыкал ровно 5 минут

KrivdaAllStars
12.02.2018
13:05:38
У кого было , что where в хайве переставало работать

mr. Kuts
12.02.2018
13:06:31
А что пишет ?

KrivdaAllStars
12.02.2018
13:08:56
Перестаёт фильтровать по условию
Типа where c.seg = 5 and .... сложное условие, в результаты попадают кортежи с c.seq != 5
А что пишет ?
походу сам дурак и нарвался на что то вроде false and false or true === true

Павел Максимов
12.02.2018
17:03:46
https://github.com/snowplow/snowplow

Nick
12.02.2018
17:06:49
@krivdaallstars слушай, не знаешь у ес нету индекса хорошего для file path?

KrivdaAllStars
12.02.2018
17:08:06
Если про еластик, то не скажу

Nick
12.02.2018
17:10:09
@pomadchin обманул меня

Grigory
12.02.2018
17:14:33
короче люсен бейзед, и сортируй лексиграфически файлы, так все будет быстро и красиво
https://www.elastic.co/guide/en/elasticsearch/guide/current/indexing-performance.html#_other
(это для контента в группе)

Nick
12.02.2018
20:47:15
https://habrahabr.ru/company/JetBrains/blog/348696/
в общем наверное для меня статью писали)

Google

Daniel
13.02.2018
03:59:11

Nick
13.02.2018
05:18:09
Ой,я похоже накинул