
Grigory
12.05.2018
16:53:29
ну по крайней мере не должен; но мб путаю

Сергей
12.05.2018
23:09:54
Ребят бронируйте прокси себе, пока остались https://t.me/proxybotfree/4


Oleksandr
13.05.2018
13:11:15
@pomadchin согласно доке, vCPU обозначает лишь относительное количество используемого проца (This parameter maps to CpuShares), а`memory` — hard limit of memory to present to the job's container
на https://forums.aws.amazon.com/thread.jspa?threadID=245580 у автора тот же вопрос, и ответ, как я понимаю, "неа, batch этого не умеет, идите в ecs напрямую"
и тут пара вопросов:
1) топик 2016 года, мб чего изменилось с тех пор
2) действительно, для каждой batch job создается соответствующий ecs task definition, и в последнем есть искомый memoryReservation, но как из батча поменять алгоритм создания этого task definition?
есть https://docs.aws.amazon.com/batch/latest/userguide/memory-management.html, но тут они не отвечают ни на что толком
моя конкретная проблема — https://stackoverflow.com/questions/50296155/aws-batch-limit-number-of-container-on-single-host/50299864#50299864

Google

Oleksandr
13.05.2018
13:13:29
tl;dr есть подозрение, что параметр memory в batch job вообще никак не влияет на шедулер, и хз как повлиять
а, и вдогонку — почему выполненные джобы пропадают из гуя батча спустя примерно день?
как их просмотреть тогда?

Sergey
14.05.2018
07:45:36
Всем привет, подскажите пожалуйста. Остановилась репликация на кафке.
Был фактор репликации 3 понизили с помощью джсон файла до 2, началсь процесс репликаци, с 66% Under replicated за часа 2 дошел до 12 и так стоит уже 15 часов

Lucas
14.05.2018
18:14:24
oi
boa tarde
estou tentando executa start-dfs.sh
mais não esta informado ip
esta 0.0.0.0
alguem pode me ajudar?

ptchol
14.05.2018
18:19:50
mi tebya ne ponimaem

Eduard
14.05.2018
18:21:30
?

Alexander
14.05.2018
18:28:19
Use Russian or English please ?

Google

Grigory
14.05.2018
18:37:40
alguem pode me ajudar?
try to follow some basic tutorial; for instance DO provide a good step by step installation tutorial: https://www.digitalocean.com/community/tutorials/how-to-install-hadoop-in-stand-alone-mode-on-ubuntu-16-04

Akceptor
15.05.2018
09:19:13
Нет такой из коробки спарк умеет
Dataset<Row> sample = sparkSession.sql("slect * from mydb.mytable limit 100");
Возвращает одни null если таблица сторится как паркет, если нет все ок. Хз куда копать
мож какую пропертю досетать надо в sparkSession чтоб включить?

Andrey
15.05.2018
09:25:02
если тебе возвращаются нулы, то что то не то с мапингом хайва с файл паркета
у спарка со всей этой паркетно-орковой требухой есть одна особенность - если ты гдето при записи или созаднии таблицы не указываешь формат записи, то ругаться он не будет
и запишет в орк файл паркет партицию например
поэтому первое это смотреть а есть ли реально данные в файле - через hdfs
и второе - смотреть методы, которыми ты пишешь и создаешь таблички

Eduard
15.05.2018
09:30:34

Akceptor
15.05.2018
09:31:09
Спасибо. нашел. надо вырубить спарковский паркет и юзать хайвишный spark.sql.hive.convertMetastoreParquet=false - и все заработало

Евгений
15.05.2018
09:38:21
Возможно, названия колонок в паркете заглавными буквами, а в метасторе маленькими
Спарк case-sensitive читает зачем-то

KrivdaAllStars
15.05.2018
12:59:13

Grigory
15.05.2018
13:08:14
кейс не сенсетив такой дос стайл

KrivdaAllStars
15.05.2018
13:13:03

Евгений
15.05.2018
13:24:37
Ну тип ещё sql
Я про это:
https://issues.apache.org/jira/plugins/servlet/mobile#issue/SPARK-19611

Oleksandr
15.05.2018
16:52:16
@pomadchin согласно доке, vCPU обозначает лишь относительное количество используемого проца (This parameter maps to CpuShares), а`memory` — hard limit of memory to present to the job's container
на https://forums.aws.amazon.com/thread.jspa?threadID=245580 у автора тот же вопрос, и ответ, как я понимаю, "неа, batch этого не умеет, идите в ecs напрямую"
и тут пара вопросов:
1) топик 2016 года, мб чего изменилось с тех пор
2) действительно, для каждой batch job создается соответствующий ecs task definition, и в последнем есть искомый memoryReservation, но как из батча поменять алгоритм создания этого task definition?
есть https://docs.aws.amazon.com/batch/latest/userguide/memory-management.html, но тут они не отвечают ни на что толком
в общем, похоже, что шедулеру сносит мозги на коротких джобах (на которых я и тестировал)

Grigory
16.05.2018
18:02:06
креативные какие стали

Polina
16.05.2018
18:34:04
Привет всем! Никто не сталкивался с тем что интерпретатор spark в zeppelin всегда возвращает NPE?
То есть он пытается создать контекст и падает с NullPointerException?
На тесте вроде те же переменные окружения, конфиги, но там всё хорошо

Google

Grigory
16.05.2018
18:37:12
он при подъеме напишет от чего у него нуллы

Евгений
16.05.2018
18:42:48
Можно ещё попробовать в ярн-кластер-моде запустить то же самое, и будет не нуллпоинтер, а более понятная ошибка выводиться, та самая, из-за которой в клиент-моде нуллпоинтер

Polina
16.05.2018
20:07:19
Он в ярне
Нуллпойнтер

Grigory
16.05.2018
20:08:00
не то что в юай а то что он выбросил в лог

Polina
16.05.2018
20:08:46
В логах цеппа всё было хорошо
Логи интерпретатора не смотрела, надо подмонтировать

Grigory
16.05.2018
20:09:25
и в какой момент нул падает?
интерполятор на все команды выдает нулл или гдето еще?
класспас стандартный или нет?

Евгений
16.05.2018
20:10:05
yarn logs -applicationId application_<id> что показывает?

Polina
16.05.2018
20:10:15
Вообще на любую
%pyspark
ололош

Grigory
16.05.2018
20:10:25
понятно а класспас стандартный?

Polina
16.05.2018
20:10:35
Вроде стандартный был

Grigory
16.05.2018
20:10:43
тип вообще никаких доп либ не наброшено?

Евгений
16.05.2018
20:10:53
а питон дефолтный или свой пытаетесь запустить?

Grigory
16.05.2018
20:11:02
да логи короч над говырять не нагадаешь на кофейной гуще так (:

Polina
16.05.2018
20:11:05
Завтра попробую, думаете он к RM подконнектиться не может?
yarn logs -applicationId application_<id> что показывает?

Евгений
16.05.2018
20:12:02
а спарк как настроен, на статическое выделение экзекуторов, или на динамическое?

Google

Polina
16.05.2018
20:12:04
Ок, спасибо)
Логи интерпретатора завтра гляну и отпишусь, они почему-то не доставились
Статическое

Grigory
16.05.2018
20:12:19
они недоставились наверн потому что он брикнулся в инициализации

Polina
16.05.2018
20:12:42
Да не, там и других интерпретаторов не было))
Это просто руки из плеч
yarn logs -applicationId application_<id> что показывает?
18/05/17 11:06:48 INFO client.RMProxy: Connecting to ResourceManager at mrashadnn-primary.i/AAAAAAAAAAAAA:8032
/var/log/hadoop-yarn/apps/root/logs/application_1522841261160_288217 does not exist.
Log aggregation has not completed or is not enabled.
Такое на любую джобу из кластера
Убитую, работающую, завершенную

Евгений
17.05.2018
08:10:07
А может в ярне лажа, а не в спарке?
Если в хайве запрос какой-нибудь пустить, сработает или нет?

Polina
17.05.2018
08:13:26
Нет хайва
Пиг работает
Кстати, цепп с неработающим спарком в докере
Может я порт какой не пробросила?

Евгений
17.05.2018
08:20:02
А кстати SPARK_HOME прописан в zeppelin_env?
и SPARK_MAJOR_VERSION=2 в интерпретаторе

Эшер
17.05.2018
08:21:11
Очень радует, что в русскоязычном пространстве намного больше девушек, занимающихся компухтерами, чем в Европе

Polina
17.05.2018
08:21:35

Эшер
17.05.2018
08:22:32
И мат. база лучше) Такими темпами можно и мир захватить (сразу после Китая)

Евгений
17.05.2018
08:25:31
Нет, а что это?)
Переменная среды, которая отвечает за выбор версии спарка, если их нашлось две

Google

Евгений
17.05.2018
08:28:17
А цеппелин и спарк кстати какой версии?

Polina
17.05.2018
08:28:32
Всё в докере, по идее только одна версия
Ставила пакеты те же самые, что и на тачке
Только на тачке работает, а в докере эти же пакеты не пашут
0.7.2 2.1.1
Проброшены порты 7077 и порт цеппелина

Grigory
17.05.2018
08:30:23
спарк в контейнере?

Polina
17.05.2018
08:31:20
Спарк с цеппелином и пигом в одном контейнере

Grigory
17.05.2018
08:31:36
линкуешь два контейнера просто да?