@hadoopusers

Страница 99 из 182
Grigory
12.05.2018
16:53:29
ну по крайней мере не должен; но мб путаю

Сергей
12.05.2018
23:09:54
Ребят бронируйте прокси себе, пока остались https://t.me/proxybotfree/4

Oleksandr
13.05.2018
13:11:15
@pomadchin согласно доке, vCPU обозначает лишь относительное количество используемого проца (This parameter maps to CpuShares), а`memory` — hard limit of memory to present to the job's container на https://forums.aws.amazon.com/thread.jspa?threadID=245580 у автора тот же вопрос, и ответ, как я понимаю, "неа, batch этого не умеет, идите в ecs напрямую" и тут пара вопросов: 1) топик 2016 года, мб чего изменилось с тех пор 2) действительно, для каждой batch job создается соответствующий ecs task definition, и в последнем есть искомый memoryReservation, но как из батча поменять алгоритм создания этого task definition? есть https://docs.aws.amazon.com/batch/latest/userguide/memory-management.html, но тут они не отвечают ни на что толком

моя конкретная проблема — https://stackoverflow.com/questions/50296155/aws-batch-limit-number-of-container-on-single-host/50299864#50299864

Google
Oleksandr
13.05.2018
13:13:29
tl;dr есть подозрение, что параметр memory в batch job вообще никак не влияет на шедулер, и хз как повлиять

а, и вдогонку — почему выполненные джобы пропадают из гуя батча спустя примерно день? как их просмотреть тогда?

Sergey
14.05.2018
07:45:36
Всем привет, подскажите пожалуйста. Остановилась репликация на кафке. Был фактор репликации 3 понизили с помощью джсон файла до 2, началсь процесс репликаци, с 66% Under replicated за часа 2 дошел до 12 и так стоит уже 15 часов

Lucas
14.05.2018
18:14:24
oi

boa tarde

estou tentando executa start-dfs.sh

mais não esta informado ip

esta 0.0.0.0

alguem pode me ajudar?

ptchol
14.05.2018
18:19:50
mi tebya ne ponimaem

Eduard
14.05.2018
18:21:30
?

Alexander
14.05.2018
18:28:19
Use Russian or English please ?

Google
Grigory
14.05.2018
18:37:40
alguem pode me ajudar?
try to follow some basic tutorial; for instance DO provide a good step by step installation tutorial: https://www.digitalocean.com/community/tutorials/how-to-install-hadoop-in-stand-alone-mode-on-ubuntu-16-04

Akceptor
15.05.2018
09:19:13
Нет такой из коробки спарк умеет
Dataset<Row> sample = sparkSession.sql("slect * from mydb.mytable limit 100"); Возвращает одни null если таблица сторится как паркет, если нет все ок. Хз куда копать

мож какую пропертю досетать надо в sparkSession чтоб включить?

Andrey
15.05.2018
09:25:02
если тебе возвращаются нулы, то что то не то с мапингом хайва с файл паркета

у спарка со всей этой паркетно-орковой требухой есть одна особенность - если ты гдето при записи или созаднии таблицы не указываешь формат записи, то ругаться он не будет

и запишет в орк файл паркет партицию например

поэтому первое это смотреть а есть ли реально данные в файле - через hdfs

и второе - смотреть методы, которыми ты пишешь и создаешь таблички

Akceptor
15.05.2018
09:31:09
Спасибо. нашел. надо вырубить спарковский паркет и юзать хайвишный spark.sql.hive.convertMetastoreParquet=false - и все заработало

Евгений
15.05.2018
09:38:21
Возможно, названия колонок в паркете заглавными буквами, а в метасторе маленькими

Спарк case-sensitive читает зачем-то

KrivdaAllStars
15.05.2018
12:59:13
Grigory
15.05.2018
13:08:14
кейс не сенсетив такой дос стайл

KrivdaAllStars
15.05.2018
13:13:03
Евгений
15.05.2018
13:24:37
Ну тип ещё sql
Я про это: https://issues.apache.org/jira/plugins/servlet/mobile#issue/SPARK-19611

Grigory
16.05.2018
18:02:06
креативные какие стали

Polina
16.05.2018
18:34:04
Привет всем! Никто не сталкивался с тем что интерпретатор spark в zeppelin всегда возвращает NPE? То есть он пытается создать контекст и падает с NullPointerException? На тесте вроде те же переменные окружения, конфиги, но там всё хорошо

Google
Евгений
16.05.2018
18:42:48
Можно ещё попробовать в ярн-кластер-моде запустить то же самое, и будет не нуллпоинтер, а более понятная ошибка выводиться, та самая, из-за которой в клиент-моде нуллпоинтер

Polina
16.05.2018
20:07:19
Он в ярне Нуллпойнтер

Grigory
16.05.2018
20:08:00
Он в ярне Нуллпойнтер
а что в логахзепелина?

не то что в юай а то что он выбросил в лог

Polina
16.05.2018
20:08:46
В логах цеппа всё было хорошо Логи интерпретатора не смотрела, надо подмонтировать

Grigory
16.05.2018
20:09:25
и в какой момент нул падает? интерполятор на все команды выдает нулл или гдето еще? класспас стандартный или нет?

Евгений
16.05.2018
20:10:05
yarn logs -applicationId application_<id> что показывает?

Polina
16.05.2018
20:10:15
Вообще на любую %pyspark ололош

Grigory
16.05.2018
20:10:25
понятно а класспас стандартный?

Polina
16.05.2018
20:10:35
Вроде стандартный был

Grigory
16.05.2018
20:10:43
тип вообще никаких доп либ не наброшено?

Евгений
16.05.2018
20:10:53
а питон дефолтный или свой пытаетесь запустить?

Grigory
16.05.2018
20:11:02
да логи короч над говырять не нагадаешь на кофейной гуще так (:

Polina
16.05.2018
20:11:05
Завтра попробую, думаете он к RM подконнектиться не может?

yarn logs -applicationId application_<id> что показывает?

Евгений
16.05.2018
20:12:02
а спарк как настроен, на статическое выделение экзекуторов, или на динамическое?

Google
Polina
16.05.2018
20:12:04
Ок, спасибо) Логи интерпретатора завтра гляну и отпишусь, они почему-то не доставились

Статическое

Grigory
16.05.2018
20:12:19
они недоставились наверн потому что он брикнулся в инициализации

Polina
16.05.2018
20:12:42
Да не, там и других интерпретаторов не было))

Это просто руки из плеч

yarn logs -applicationId application_<id> что показывает?
18/05/17 11:06:48 INFO client.RMProxy: Connecting to ResourceManager at mrashadnn-primary.i/AAAAAAAAAAAAA:8032 /var/log/hadoop-yarn/apps/root/logs/application_1522841261160_288217 does not exist. Log aggregation has not completed or is not enabled. Такое на любую джобу из кластера Убитую, работающую, завершенную

Евгений
17.05.2018
08:10:07
А может в ярне лажа, а не в спарке?

Если в хайве запрос какой-нибудь пустить, сработает или нет?

Polina
17.05.2018
08:13:26
Нет хайва

Пиг работает

Кстати, цепп с неработающим спарком в докере Может я порт какой не пробросила?

Евгений
17.05.2018
08:20:02
А кстати SPARK_HOME прописан в zeppelin_env?

и SPARK_MAJOR_VERSION=2 в интерпретаторе

Эшер
17.05.2018
08:21:11
Очень радует, что в русскоязычном пространстве намного больше девушек, занимающихся компухтерами, чем в Европе

Эшер
17.05.2018
08:22:32
В Европе их жгут на кострах
У меня на потоке 5 девочек ?

И мат. база лучше) Такими темпами можно и мир захватить (сразу после Китая)

Евгений
17.05.2018
08:25:31
Нет, а что это?)
Переменная среды, которая отвечает за выбор версии спарка, если их нашлось две

Google
Евгений
17.05.2018
08:28:17
А цеппелин и спарк кстати какой версии?

Polina
17.05.2018
08:28:32
Всё в докере, по идее только одна версия Ставила пакеты те же самые, что и на тачке Только на тачке работает, а в докере эти же пакеты не пашут

0.7.2 2.1.1

Проброшены порты 7077 и порт цеппелина

Grigory
17.05.2018
08:30:23
спарк в контейнере?

Polina
17.05.2018
08:31:20
Спарк с цеппелином и пигом в одном контейнере

Grigory
17.05.2018
08:31:36
линкуешь два контейнера просто да?

Страница 99 из 182