Grigory
12.05.2018
16:53:29
ну по крайней мере не должен; но мб путаю
Сергей
12.05.2018
23:09:54
Ребят бронируйте прокси себе, пока остались https://t.me/proxybotfree/4
Oleksandr
13.05.2018
13:11:15
@pomadchin согласно доке, vCPU обозначает лишь относительное количество используемого проца (This parameter maps to CpuShares), а`memory` — hard limit of memory to present to the job's container
на https://forums.aws.amazon.com/thread.jspa?threadID=245580 у автора тот же вопрос, и ответ, как я понимаю, "неа, batch этого не умеет, идите в ecs напрямую"
и тут пара вопросов:
1) топик 2016 года, мб чего изменилось с тех пор
2) действительно, для каждой batch job создается соответствующий ecs task definition, и в последнем есть искомый memoryReservation, но как из батча поменять алгоритм создания этого task definition?
есть https://docs.aws.amazon.com/batch/latest/userguide/memory-management.html, но тут они не отвечают ни на что толком
моя конкретная проблема — https://stackoverflow.com/questions/50296155/aws-batch-limit-number-of-container-on-single-host/50299864#50299864
Google
Oleksandr
13.05.2018
13:13:29
tl;dr есть подозрение, что параметр memory в batch job вообще никак не влияет на шедулер, и хз как повлиять
а, и вдогонку — почему выполненные джобы пропадают из гуя батча спустя примерно день?
как их просмотреть тогда?
Sergey
14.05.2018
07:45:36
Всем привет, подскажите пожалуйста. Остановилась репликация на кафке.
Был фактор репликации 3 понизили с помощью джсон файла до 2, началсь процесс репликаци, с 66% Under replicated за часа 2 дошел до 12 и так стоит уже 15 часов
Lucas
14.05.2018
18:14:24
oi
boa tarde
estou tentando executa start-dfs.sh
mais não esta informado ip
esta 0.0.0.0
alguem pode me ajudar?
ptchol
14.05.2018
18:19:50
mi tebya ne ponimaem
Eduard
14.05.2018
18:21:30
?
Alexander
14.05.2018
18:28:19
Use Russian or English please ?
Google
Grigory
14.05.2018
18:37:40
alguem pode me ajudar?
try to follow some basic tutorial; for instance DO provide a good step by step installation tutorial: https://www.digitalocean.com/community/tutorials/how-to-install-hadoop-in-stand-alone-mode-on-ubuntu-16-04
Akceptor
15.05.2018
09:19:13
Нет такой из коробки спарк умеет
Dataset<Row> sample = sparkSession.sql("slect * from mydb.mytable limit 100");
Возвращает одни null если таблица сторится как паркет, если нет все ок. Хз куда копать
мож какую пропертю досетать надо в sparkSession чтоб включить?
Andrey
15.05.2018
09:25:02
если тебе возвращаются нулы, то что то не то с мапингом хайва с файл паркета
у спарка со всей этой паркетно-орковой требухой есть одна особенность - если ты гдето при записи или созаднии таблицы не указываешь формат записи, то ругаться он не будет
и запишет в орк файл паркет партицию например
поэтому первое это смотреть а есть ли реально данные в файле - через hdfs
и второе - смотреть методы, которыми ты пишешь и создаешь таблички
Eduard
15.05.2018
09:30:34
Akceptor
15.05.2018
09:31:09
Спасибо. нашел. надо вырубить спарковский паркет и юзать хайвишный spark.sql.hive.convertMetastoreParquet=false - и все заработало
Евгений
15.05.2018
09:38:21
Возможно, названия колонок в паркете заглавными буквами, а в метасторе маленькими
Спарк case-sensitive читает зачем-то
KrivdaAllStars
15.05.2018
12:59:13
Grigory
15.05.2018
13:08:14
кейс не сенсетив такой дос стайл
KrivdaAllStars
15.05.2018
13:13:03
Евгений
15.05.2018
13:24:37
Ну тип ещё sql
Я про это:
https://issues.apache.org/jira/plugins/servlet/mobile#issue/SPARK-19611
Oleksandr
15.05.2018
16:52:16
@pomadchin согласно доке, vCPU обозначает лишь относительное количество используемого проца (This parameter maps to CpuShares), а`memory` — hard limit of memory to present to the job's container
на https://forums.aws.amazon.com/thread.jspa?threadID=245580 у автора тот же вопрос, и ответ, как я понимаю, "неа, batch этого не умеет, идите в ecs напрямую"
и тут пара вопросов:
1) топик 2016 года, мб чего изменилось с тех пор
2) действительно, для каждой batch job создается соответствующий ecs task definition, и в последнем есть искомый memoryReservation, но как из батча поменять алгоритм создания этого task definition?
есть https://docs.aws.amazon.com/batch/latest/userguide/memory-management.html, но тут они не отвечают ни на что толком
в общем, похоже, что шедулеру сносит мозги на коротких джобах (на которых я и тестировал)
Grigory
16.05.2018
18:02:06
креативные какие стали
Polina
16.05.2018
18:34:04
Привет всем! Никто не сталкивался с тем что интерпретатор spark в zeppelin всегда возвращает NPE?
То есть он пытается создать контекст и падает с NullPointerException?
На тесте вроде те же переменные окружения, конфиги, но там всё хорошо
Google
Grigory
16.05.2018
18:37:12
он при подъеме напишет от чего у него нуллы
Евгений
16.05.2018
18:42:48
Можно ещё попробовать в ярн-кластер-моде запустить то же самое, и будет не нуллпоинтер, а более понятная ошибка выводиться, та самая, из-за которой в клиент-моде нуллпоинтер
Polina
16.05.2018
20:07:19
Он в ярне
Нуллпойнтер
Grigory
16.05.2018
20:08:00
не то что в юай а то что он выбросил в лог
Polina
16.05.2018
20:08:46
В логах цеппа всё было хорошо
Логи интерпретатора не смотрела, надо подмонтировать
Grigory
16.05.2018
20:09:25
и в какой момент нул падает?
интерполятор на все команды выдает нулл или гдето еще?
класспас стандартный или нет?
Евгений
16.05.2018
20:10:05
yarn logs -applicationId application_<id> что показывает?
Polina
16.05.2018
20:10:15
Вообще на любую
%pyspark
ололош
Grigory
16.05.2018
20:10:25
понятно а класспас стандартный?
Polina
16.05.2018
20:10:35
Вроде стандартный был
Grigory
16.05.2018
20:10:43
тип вообще никаких доп либ не наброшено?
Евгений
16.05.2018
20:10:53
а питон дефолтный или свой пытаетесь запустить?
Grigory
16.05.2018
20:11:02
да логи короч над говырять не нагадаешь на кофейной гуще так (:
Polina
16.05.2018
20:11:05
Завтра попробую, думаете он к RM подконнектиться не может?
yarn logs -applicationId application_<id> что показывает?
Евгений
16.05.2018
20:12:02
а спарк как настроен, на статическое выделение экзекуторов, или на динамическое?
Google
Polina
16.05.2018
20:12:04
Ок, спасибо)
Логи интерпретатора завтра гляну и отпишусь, они почему-то не доставились
Статическое
Grigory
16.05.2018
20:12:19
они недоставились наверн потому что он брикнулся в инициализации
Polina
16.05.2018
20:12:42
Да не, там и других интерпретаторов не было))
Это просто руки из плеч
yarn logs -applicationId application_<id> что показывает?
18/05/17 11:06:48 INFO client.RMProxy: Connecting to ResourceManager at mrashadnn-primary.i/AAAAAAAAAAAAA:8032
/var/log/hadoop-yarn/apps/root/logs/application_1522841261160_288217 does not exist.
Log aggregation has not completed or is not enabled.
Такое на любую джобу из кластера
Убитую, работающую, завершенную
Евгений
17.05.2018
08:10:07
А может в ярне лажа, а не в спарке?
Если в хайве запрос какой-нибудь пустить, сработает или нет?
Polina
17.05.2018
08:13:26
Нет хайва
Пиг работает
Кстати, цепп с неработающим спарком в докере
Может я порт какой не пробросила?
Евгений
17.05.2018
08:20:02
А кстати SPARK_HOME прописан в zeppelin_env?
и SPARK_MAJOR_VERSION=2 в интерпретаторе
Эшер
17.05.2018
08:21:11
Очень радует, что в русскоязычном пространстве намного больше девушек, занимающихся компухтерами, чем в Европе
Polina
17.05.2018
08:21:35
Эшер
17.05.2018
08:22:32
И мат. база лучше) Такими темпами можно и мир захватить (сразу после Китая)
Евгений
17.05.2018
08:25:31
Нет, а что это?)
Переменная среды, которая отвечает за выбор версии спарка, если их нашлось две
Google
Евгений
17.05.2018
08:28:17
А цеппелин и спарк кстати какой версии?
Polina
17.05.2018
08:28:32
Всё в докере, по идее только одна версия
Ставила пакеты те же самые, что и на тачке
Только на тачке работает, а в докере эти же пакеты не пашут
0.7.2 2.1.1
Проброшены порты 7077 и порт цеппелина
Grigory
17.05.2018
08:30:23
спарк в контейнере?
Polina
17.05.2018
08:31:20
Спарк с цеппелином и пигом в одном контейнере
Grigory
17.05.2018
08:31:36
линкуешь два контейнера просто да?