@hadoopusers

Страница 101 из 182
Grigory
17.05.2018
15:32:38
мож и правда чтото не докинуто

Polina
17.05.2018
15:36:01
в логах нашлось такое 18/05/17 18:12:24 DEBUG Shell: Failed to detect a valid hadoop home directory java.io.IOException: HADOOP_HOME or hadoop.home.dir are not set. at org.apache.hadoop.util.Shell.checkHadoopHome(Shell.java:302) at org.apache.hadoop.util.Shell.<clinit>(Shell.java:327) at org.apache.hadoop.util.StringUtils.<clinit>(StringUtils.java:79) at org.apache.hadoop.yarn.conf.YarnConfiguration.<clinit>(YarnConfiguration.java:601) at org.apache.spark.deploy.yarn.YarnSparkHadoopUtil.newConfiguration(YarnSparkHadoopUtil.scala:64) at org.apache.spark.deploy.SparkHadoopUtil.<init>(SparkHadoopUtil.scala:50) at org.apache.spark.deploy.yarn.YarnSparkHadoopUtil.<init>(YarnSparkHadoopUtil.scala:49) at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method) at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57) at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45) at java.lang.reflect.Constructor.newInstance(Constructor.java:526) at java.lang.Class.newInstance(Class.java:383) at org.apache.spark.deploy.SparkHadoopUtil$.liftedTree1$1(SparkHadoopUtil.scala:387) at org.apache.spark.deploy.SparkHadoopUtil$.yarn$lzycompute(SparkHadoopUtil.scala:385) at org.apache.spark.deploy.SparkHadoopUtil$.yarn(SparkHadoopUtil.scala:385) at org.apache.spark.deploy.SparkHadoopUtil$.get(SparkHadoopUtil.scala:410) at org.apache.spark.deploy.yarn.ApplicationMaster$.main(ApplicationMaster.scala:764) at org.apache.spark.deploy.yarn.ExecutorLauncher$.main(ApplicationMaster.scala:787) at org.apache.spark.deploy.yarn.ExecutorLauncher.main(ApplicationMaster.scala) 18/05/17 18:12:24 DEBUG Shell: setsid exited with exit code 0опять хомяк хадупа не виден у меня он задан в /usr/local/spark/conf/spark-env.shнаверное это что-то не то, да? ? и дальше много такого 18/05/17 18:12:35 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ... 18/05/17 18:12:35 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ... 18/05/17 18:12:35 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ... 18/05/17 18:12:36 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ...172.18.0.5 - ip контейнера

сейчас поменяю бридж на хост, но у меня не всегда компоуз рестартится)

Евгений
17.05.2018
16:06:46
в логах нашлось такое 18/05/17 18:12:24 DEBUG Shell: Failed to detect a valid hadoop home directory java.io.IOException: HADOOP_HOME or hadoop.home.dir are not set. at org.apache.hadoop.util.Shell.checkHadoopHome(Shell.java:302) at org.apache.hadoop.util.Shell.<clinit>(Shell.java:327) at org.apache.hadoop.util.StringUtils.<clinit>(StringUtils.java:79) at org.apache.hadoop.yarn.conf.YarnConfiguration.<clinit>(YarnConfiguration.java:601) at org.apache.spark.deploy.yarn.YarnSparkHadoopUtil.newConfiguration(YarnSparkHadoopUtil.scala:64) at org.apache.spark.deploy.SparkHadoopUtil.<init>(SparkHadoopUtil.scala:50) at org.apache.spark.deploy.yarn.YarnSparkHadoopUtil.<init>(YarnSparkHadoopUtil.scala:49) at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method) at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57) at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45) at java.lang.reflect.Constructor.newInstance(Constructor.java:526) at java.lang.Class.newInstance(Class.java:383) at org.apache.spark.deploy.SparkHadoopUtil$.liftedTree1$1(SparkHadoopUtil.scala:387) at org.apache.spark.deploy.SparkHadoopUtil$.yarn$lzycompute(SparkHadoopUtil.scala:385) at org.apache.spark.deploy.SparkHadoopUtil$.yarn(SparkHadoopUtil.scala:385) at org.apache.spark.deploy.SparkHadoopUtil$.get(SparkHadoopUtil.scala:410) at org.apache.spark.deploy.yarn.ApplicationMaster$.main(ApplicationMaster.scala:764) at org.apache.spark.deploy.yarn.ExecutorLauncher$.main(ApplicationMaster.scala:787) at org.apache.spark.deploy.yarn.ExecutorLauncher.main(ApplicationMaster.scala) 18/05/17 18:12:24 DEBUG Shell: setsid exited with exit code 0опять хомяк хадупа не виден у меня он задан в /usr/local/spark/conf/spark-env.shнаверное это что-то не то, да? ? и дальше много такого 18/05/17 18:12:35 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ... 18/05/17 18:12:35 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ... 18/05/17 18:12:35 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ... 18/05/17 18:12:36 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ...172.18.0.5 - ip контейнера
Я в такие моменты начинаю втыкать параметры во все конфиги, в которые их можно воткнуть, а потом, если заработало, то убираю по одному, пока не перестанет работать)

Google
Polina
17.05.2018
16:08:15
я уже в хадуп-енв влепила :D и тут кончилась тачка под докером))

Pavel
18.05.2018
07:59:21
Всем привет! Давно не слышались. Вчера вел переговоры с новой площадкой, которая готова взять на себя расходы и заботы, чтоб привезти на Moscow Spark какую-нибудь звезду. В связи с этим я еще раз кидаю клич и прошу накидывать варианты, кого бы вы хотели увидеть-услышать-выпить пива?

Vova
18.05.2018
08:15:31
Matei Zaharia

Polina
18.05.2018
08:30:12
день третий поднимаем спарк в докере сводки с фронта https://pastebin.com/wpKBRNBk если я правильно поняла, он пытается стучаться в АМ в нули 0.0.0.0:8032

видимо, не туда приехал yarn-site.xml

Roman
18.05.2018
09:23:51
Потом статью на Хабр с ссылью на рабочий образ ??

Polina
18.05.2018
09:33:25
ахахха, обязательно) поможете из песочницы выбраться

Vishal
18.05.2018
09:40:44
hey guys where can i get USECASES or poc's for practicing in hadoop ingestion tools like pig ,flume,hive etc?

Lena
18.05.2018
09:44:36
KrivdaAllStars
18.05.2018
09:45:44
но можно же взять готовый зеппенлин образ

Евгений
18.05.2018
09:48:12
но можно же взять готовый зеппенлин образ
А может есть у кого-нибудь готовый 0.8.0 образ?)

Ну, вдруг)

Google
Polina
18.05.2018
09:49:33
Тоже хотели на докер переходить. И спарк в том числе. Что-то страшно после этого=)))
у меня просто примонтировано не туда а то что монтируется приезжает через раз) если не упарываться с CI-CD - таких проблем быть не должно, видимо

Lena
18.05.2018
09:50:54
Да, у нас к этому жестких требований нет

Polina
18.05.2018
09:55:27
потому что я программист инфраструктуры и хочу ?

Старый
18.05.2018
09:56:26
?какие то прям ужасы, ops инженеры скор вымрут

Polina
19.05.2018
11:27:08
Всем привет ещё раз и спасибо за помощь! день 4, спарк работает, цеппелин работает, пиг работает, но иногда валится pig streaming первый раз отрабатывает нормально, а на второй падает с NPE не сообщив об этом в логах интерпретатора. Помогает только рестарт интерпретатора я правильно понимаю, что второй раз он вычитывает из какого-то своего кэша результат? в чём может быть проблема, куда копать? ?

падает и в докере и на тачке

недавно обновляла пиг на 0.16.0 и ставила тез на тачке используется mapreduce, в докере тез падает везде

java.lang.NullPointerException at org.apache.pig.PigServer.registerCode(PigServer.java:658) at org.apache.pig.parser.RegisterResolver.parseRegister(RegisterResolver.java:53) at org.apache.pig.tools.grunt.GruntParser.processRegister(GruntParser.java:465) at org.apache.pig.tools.pigscript.parser.PigScriptParser.parse(PigScriptParser.java:550) at org.apache.pig.tools.grunt.GruntParser.parseStopOnError(GruntParser.java:231) at org.apache.pig.PigServer.registerScript(PigServer.java:780) at org.apache.pig.PigServer.registerScript(PigServer.java:857) at org.apache.pig.PigServer.registerScript(PigServer.java:820) at org.apache.zeppelin.pig.PigInterpreter.interpret(PigInterpreter.java:99) at org.apache.zeppelin.interpreter.LazyOpenInterpreter.interpret(LazyOpenInterpreter.java:97) at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:498) at org.apache.zeppelin.scheduler.Job.run(Job.java:175) at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139) at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511) at java.util.concurrent.FutureTask.run(FutureTask.java:266) at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180) at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) at java.lang.Thread.run(Thread.java:748)

Andrew
19.05.2018
12:37:23
java.lang.NullPointerException at org.apache.pig.PigServer.registerCode(PigServer.java:658) at org.apache.pig.parser.RegisterResolver.parseRegister(RegisterResolver.java:53) at org.apache.pig.tools.grunt.GruntParser.processRegister(GruntParser.java:465) at org.apache.pig.tools.pigscript.parser.PigScriptParser.parse(PigScriptParser.java:550) at org.apache.pig.tools.grunt.GruntParser.parseStopOnError(GruntParser.java:231) at org.apache.pig.PigServer.registerScript(PigServer.java:780) at org.apache.pig.PigServer.registerScript(PigServer.java:857) at org.apache.pig.PigServer.registerScript(PigServer.java:820) at org.apache.zeppelin.pig.PigInterpreter.interpret(PigInterpreter.java:99) at org.apache.zeppelin.interpreter.LazyOpenInterpreter.interpret(LazyOpenInterpreter.java:97) at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:498) at org.apache.zeppelin.scheduler.Job.run(Job.java:175) at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139) at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511) at java.util.concurrent.FutureTask.run(FutureTask.java:266) at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180) at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) at java.lang.Thread.run(Thread.java:748)
не особо информативно

Artem
19.05.2018
12:38:59
ошибка выше предоставленных записей

Grigory
19.05.2018
12:42:14
тез 0.7?

Polina
19.05.2018
12:43:58
tez-0.7.1-1.el6.noarch

Старый
19.05.2018
12:48:07
что это значит?
даже в субботу работают, майл ру эксплуататоры

Artem
19.05.2018
12:48:30
что это значит?
то что вы не предоставили полный лог

Polina
19.05.2018
12:49:04
то что вы не предоставили полный лог
подскажи, пожалуйста, где достать полный лог я скину

Старый
19.05.2018
12:49:04
то что вы не предоставили полный лог
я думаю лог больше смысла было бы выложить на dpaste.com

чем сюда

Google
Polina
19.05.2018
12:49:18
в логах интерпретатора пига нет ошибки NPE

Старый
19.05.2018
12:52:40
а в логах контейнера

Polina
19.05.2018
12:56:18
нет контейнера и джобы

оно падает до того

в лог интерпретатора вообще ничего не пишет

Artem
19.05.2018
12:56:46
java.lang.NullPointerException at org.apache.pig.PigServer.registerCode(PigServer.java:658) at org.apache.pig.parser.RegisterResolver.parseRegister(RegisterResolver.java:53) at org.apache.pig.tools.grunt.GruntParser.processRegister(GruntParser.java:465) at org.apache.pig.tools.pigscript.parser.PigScriptParser.parse(PigScriptParser.java:550) at org.apache.pig.tools.grunt.GruntParser.parseStopOnError(GruntParser.java:231) at org.apache.pig.PigServer.registerScript(PigServer.java:780) at org.apache.pig.PigServer.registerScript(PigServer.java:857) at org.apache.pig.PigServer.registerScript(PigServer.java:820) at org.apache.zeppelin.pig.PigInterpreter.interpret(PigInterpreter.java:99) at org.apache.zeppelin.interpreter.LazyOpenInterpreter.interpret(LazyOpenInterpreter.java:97) at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:498) at org.apache.zeppelin.scheduler.Job.run(Job.java:175) at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139) at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511) at java.util.concurrent.FutureTask.run(FutureTask.java:266) at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180) at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) at java.lang.Thread.run(Thread.java:748)
откуда этот лог?

предоставьте полный лог

Polina
19.05.2018
12:56:55
из ячейки цеппелина

это полный

Artem
19.05.2018
12:57:15
грустно

Polina
19.05.2018
12:57:25
при первом запуске возвращает результат, при втором NPE угу(

Artem
19.05.2018
12:57:32
пойдемте лучше наебенимся, шаббат же

Старый
19.05.2018
12:58:10
final Log4jFileAppender fa = appender; final WriterAppender ptk = pigToKettleAppender; Thread runThread = new Thread() { public void run() { try { int[] executionStatus = grunt .parseStopOnError(false); logBasic(BaseMessages чтот тип такого в настройках?

Oleg
20.05.2018
07:49:05
Цеппелин вообще жуткое нестабильное дерьмо и перезапуск интерпретатора - это штатная операция, без которой он не работает нормально. Также как и перезапуск всего цеппелина с килянием всех Спарк процессов ( следующий этап если с интерпретатором не взлетело). У нас у каждого аналитика свой цеппелин в виртуалке, где он может перезапускать все когад угодно никому не мешая. Плюс все они перезапускаются ночью по крону полностью. Так их также удобно мониторить - кто занял кластер, кто пишет очень много аутпута и пр. вещи.

С нпе хз, много что может быть

Vova
20.05.2018
13:06:41
ад какой...

Andrew
20.05.2018
13:08:18
Быстрый вопрос

Количество spark executors должно быть равно количеству ядер на ноде?

Yurij
20.05.2018
13:11:23
Ну типо ты всего хочешь добиться? Максимальной эффективности?

Google
Artem
20.05.2018
13:12:01
Количество spark executors должно быть равно количеству ядер на ноде?
https://community.hortonworks.com/questions/56240/spark-num-executors-setting.html

Admin


Artem
20.05.2018
13:12:16
spark.executor.cores = The number of cores to use on each executor

Grigory
20.05.2018
13:13:05
а то там как угодно можно

вон там тебе верно написали, обрати внимания на колво ядер на ехекутор и от колов ядер в кластере твоем.

Andrew
20.05.2018
13:15:57
а то там как угодно можно
Invalid resource request, requested virtual cores < 0, or requested virtual cores > max configured, requestedVirtualCores=4, maxVirtualCores=2 У меня по 2 CPU на ноде, всего нод 5. При параметре spark.executor.cores=4 падает ошибка выше

Grigory
20.05.2018
13:16:29
ну а зачем ты 4 ядра запросил при доустпных двух

каждый экзекутор ток на одной машине может быть в твоем вариант можно либо 5 экзекуторов по 2 спу каждому дать ну или 10 и каждому по одному ядру выдать

что будет быстрее от твоей задачи зависит

это при учете что эти тачки только под спарк (:

Andrew
20.05.2018
13:18:33
Выходит, рабочий конфиг - только 2 в моем случае?

Grigory
20.05.2018
13:19:07
поч?

один можешь

Andrew
20.05.2018
13:19:27
один можешь
А ну, это да))

Grigory
20.05.2018
13:19:47
(:

Andrew
20.05.2018
13:20:03
Спасибо

Google
Oleg
20.05.2018
14:40:15
http://lurkmore.to/Чуть_более,_чем_наполовину

Старый
20.05.2018
21:03:37
Зато тепло
да и на улице уже тепло

Эшер
20.05.2018
21:08:18
лол што

Кубинский интернет

Andrew
20.05.2018
21:10:29
лол што
Ну, про чуть менее, чем полностью я в курсе =)) Но не чуть более =)

ilya
22.05.2018
11:14:49
Use Google translate Или зеркала

Страница 101 из 182