
Alex
04.07.2018
12:36:57
(

Oleksandr
04.07.2018
12:37:15
немного костыльно, ага

Alex
04.07.2018
12:40:24
пипец костыльно
))

Google

Alex
04.07.2018
12:40:34
это еще автоматизировать

Oleksandr
04.07.2018
12:41:28
ну ладно, в питоне всегда можно в рантайме поменять переменную
но это, как по мне, ещё хуже

Alexander
04.07.2018
12:48:41

Alex
04.07.2018
12:50:10
Предложили сделать статик хост внутри контейнера, остановлюсь пока на этом

Oleksandr
04.07.2018
14:45:05
а скажите, как красиво обозвать то, к чему применяется мап-редьюс? (не хадуповский, идея вообще)

Grigory
04.07.2018
14:55:30

KrivdaAllStars
04.07.2018
14:55:44
распредленнаяя коллекция данных

Alexsey
04.07.2018
14:56:42
она вроде как и распределенной быть не обязана

Grigory
04.07.2018
14:57:02
ммм я думал изначально проименялось как отправка мап задач на разные тачки и сбор потом на драйвер ноду
и куда рез придет зависит уже от сети (что где лежит)

Oleksandr
04.07.2018
14:59:10
например, сейчас chunk_path / chunk_paths

Google

Oleksandr
04.07.2018
15:00:07
идея типа в том, что мап эти чанки как-то там собирает, а редьюс как-то аггрегирует
вот не могу имя придумать :)

Aleksey
04.07.2018
16:10:58
Есть необходимость поиграться с Neo4j, соответственно какие варианты могут быть? И примерно на какой бюджет расчитывать? Поначалу пного узлов в базе быть не должно, но дальше как карта ляжет ?

Dmitry
05.07.2018
07:16:35
Датаны, кто что подскажет про ci/cd в ml?

Евгений
05.07.2018
07:37:08
airflow+pyspark2.3
Нужно выкатить модель локального бустеца на 100млн объектов - пиклим, броадкастим и вызываем внутри pandas udf
А эйрфлоу для отправки почты об успехе)
Новая версия выкатывается из гита по мёрдж реквесту

Roman
05.07.2018
08:05:45
Красавцы

Dmitry
05.07.2018
09:05:28
а где тесты?
где держите модели?
где держите тестовую выбрку для ci?
учите на ci сервере?
или кто как?
и потом куда то складываете?

The mirror
05.07.2018
09:18:51
кто что использует для отслеживания delay'я на разных этапов пайплайнов?

Евгений
05.07.2018
09:36:03
Какие тесты?)

Dmitry
05.07.2018
09:42:16

Евгений
05.07.2018
10:12:19
Модели в /opt/scoring/bin на эдж-ноде кластера, учит, тестирует и применяет каждый сам по себе, у нас rnd, всё-таки, большинству проектов до регламента ещё далеко, а результаты нужны вотпрямщас, так что сначала результаты проверяем, сдаём, а потом выкатываем уже готовую вещь

Dmitry
05.07.2018
10:26:04

Google

Евгений
05.07.2018
10:38:33
Ещё в проекте когда-нибудь проверять качество фичей и скоров)

Dmitry
05.07.2018
10:39:20
Ну да
Вот и я хотел бы услышать как кто это делает
Ну или кто на что смотрит
У нас типа тоже рнд
Но зачем его через хуй делать когда в целом мы инженеры

Vadim
05.07.2018
10:42:56
мне кажется ты ищешь что-нить типа - https://www.mlflow.org/
как я понял там типа описываешь тренировку в виде ихнего проекта и ранаешь, выплевываешь результаты и они где-то это нормально сохранят в привязке в конретному запуску

Dmitry
05.07.2018
10:44:24
ну начать я хочу хотя бы с этого
https://github.com/iterative/dvc
что бы хотя бы хранить по человечьи

Александр
05.07.2018
12:57:47
Глупый вопрос крайне, я правильно понимаю что spark сейчас на 2.11 и мне все либы нужно подбивать под 2.11 иначе не заведеться ?

Alexander
05.07.2018
13:03:18
Да, более того, в 2.3.0 убрали поддержку 2.10 официально.

Daniel
05.07.2018
13:05:51

Александр
05.07.2018
13:05:57
я правильно понимаю, что если нужна либа в 2.12 то нужно
- попросить перекомпилить
- перекомпилить самому и иметь лкоальный jar
- форкать и самому поддерживать
- поискать еще что-то

Vadim
05.07.2018
13:08:58

Dmitry
05.07.2018
13:09:38
Где-то мелькало ж

Artem
05.07.2018
13:10:21

Daniel
05.07.2018
13:12:57
Где-то мелькало ж
у меня на работе целая портянка записана подобных решений и еще предстоит все разобрать
во всяких уберах, гуглах и фб похоже на то что мы хотим, но оно закрыто и без пары фич, которые я хочу втащить

Google

Eduard
05.07.2018
13:16:04
Приветик, подскажите плиз куда копать, получаю
Container is running beyond physical memory limits
Судя по логам падает spark driver

Grigory
05.07.2018
13:16:26

Eduard
05.07.2018
13:16:39
18/07/05 07:17:39 INFO Client:
client token: N/A
diagnostics: Application application_1526525889132_1203 failed 1 times due to AM Container for appattempt_1526525889132_1203_000001 exited with exitCode: -104
Failing this attempt.Diagnostics: Container [pid=21876,containerID=container_1526525889132_1203_01_000001] is running beyond physical memory limits. Current usage: 1.4 GB of 1.4 GB physical memory used; 3.2 GB of 6.9 GB virtual memory used. Killing container.
EMR 5.13
Обработка кучи JSON файлов без перемешиваний и collect-ов

Grigory
05.07.2018
13:17:11

Nick
05.07.2018
13:17:14
киляет то кто?
докер?

Grigory
05.07.2018
13:18:16
похоже ярн

Eduard
05.07.2018
13:18:19
Как я понял, spark driver не влазит в контейнер и он уничтожается YARN-м.

Grigory
05.07.2018
13:18:35
а влезает он в физиеческую память то или нет?

Eduard
05.07.2018
13:18:59
память есть, и на железке и в кластере вцелом

Nick
05.07.2018
13:19:13
в какой контеинер то?
прост на железе?

Grigory
05.07.2018
13:19:27

Nick
05.07.2018
13:19:44
yarn не контеинер

Grigory
05.07.2018
13:20:28
не докер короч; сомневаюьс что он докеры пуляет на ярне

Nick
05.07.2018
13:20:50
а я сомневаюсь что ярн сам киляет

Eduard
05.07.2018
13:20:51
Корочи, когда на вход даю 120к штук JSON все плохо, а когда 20к штук то нормас

Google

Nick
05.07.2018
13:20:56
может ос киллер?

Grigory
05.07.2018
13:21:14

Nick
05.07.2018
13:21:16
а ты этот json целиком в память грузишь?

Grigory
05.07.2018
13:21:26
вдруг рили 120 тыщ джейсонов колектятся

Eduard
05.07.2018
13:24:25
не, в yarn около 50 Гб памяти, а 20к JSON весят 300 гб
джоба сабмитится элементарно spark-submit --deploy-mode cluster --class com.realtimeboard.TransformationApplication s3://***/transformation.jar ***
оверхед пока не понял как смотреть
Спасибо за наводку с overhead, буду пробовать
https://stackoverflow.com/questions/32292414/apache-spark-effects-of-driver-memory-executor-memory-driver-memory-overhead-a

Grigory
05.07.2018
13:53:03
явно ресурсы выделяй ехекуторам и драйверу лучше

Eduard
05.07.2018
13:53:15
?
как я понимаю, есть некая дефолтная конфа и в топике выше описано как ее переопределить
а можно как-то посмотреть с какими параметрами запущен тот или иной app (то есть если применились дефолтные, увидеть их)?

Grigory
05.07.2018
13:55:41
да - спарк UI палит все во вкладке environment