Grigory
17.05.2018
15:32:38
мож и правда чтото не докинуто
Polina
17.05.2018
15:36:01
в логах нашлось такое
18/05/17 18:12:24 DEBUG Shell: Failed to detect a valid hadoop home directory
java.io.IOException: HADOOP_HOME or hadoop.home.dir are not set.
at org.apache.hadoop.util.Shell.checkHadoopHome(Shell.java:302)
at org.apache.hadoop.util.Shell.<clinit>(Shell.java:327)
at org.apache.hadoop.util.StringUtils.<clinit>(StringUtils.java:79)
at org.apache.hadoop.yarn.conf.YarnConfiguration.<clinit>(YarnConfiguration.java:601)
at org.apache.spark.deploy.yarn.YarnSparkHadoopUtil.newConfiguration(YarnSparkHadoopUtil.scala:64)
at org.apache.spark.deploy.SparkHadoopUtil.<init>(SparkHadoopUtil.scala:50)
at org.apache.spark.deploy.yarn.YarnSparkHadoopUtil.<init>(YarnSparkHadoopUtil.scala:49)
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57)
at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
at java.lang.reflect.Constructor.newInstance(Constructor.java:526)
at java.lang.Class.newInstance(Class.java:383)
at org.apache.spark.deploy.SparkHadoopUtil$.liftedTree1$1(SparkHadoopUtil.scala:387)
at org.apache.spark.deploy.SparkHadoopUtil$.yarn$lzycompute(SparkHadoopUtil.scala:385)
at org.apache.spark.deploy.SparkHadoopUtil$.yarn(SparkHadoopUtil.scala:385)
at org.apache.spark.deploy.SparkHadoopUtil$.get(SparkHadoopUtil.scala:410)
at org.apache.spark.deploy.yarn.ApplicationMaster$.main(ApplicationMaster.scala:764)
at org.apache.spark.deploy.yarn.ExecutorLauncher$.main(ApplicationMaster.scala:787)
at org.apache.spark.deploy.yarn.ExecutorLauncher.main(ApplicationMaster.scala)
18/05/17 18:12:24 DEBUG Shell: setsid exited with exit code 0опять хомяк хадупа не виден
у меня он задан в
/usr/local/spark/conf/spark-env.shнаверное это что-то не то, да? ?
и дальше много такого
18/05/17 18:12:35 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ...
18/05/17 18:12:35 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ...
18/05/17 18:12:35 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ...
18/05/17 18:12:36 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ...172.18.0.5 - ip контейнера
сейчас поменяю бридж на хост, но у меня не всегда компоуз рестартится)
Евгений
17.05.2018
16:06:46
в логах нашлось такое
18/05/17 18:12:24 DEBUG Shell: Failed to detect a valid hadoop home directory
java.io.IOException: HADOOP_HOME or hadoop.home.dir are not set.
at org.apache.hadoop.util.Shell.checkHadoopHome(Shell.java:302)
at org.apache.hadoop.util.Shell.<clinit>(Shell.java:327)
at org.apache.hadoop.util.StringUtils.<clinit>(StringUtils.java:79)
at org.apache.hadoop.yarn.conf.YarnConfiguration.<clinit>(YarnConfiguration.java:601)
at org.apache.spark.deploy.yarn.YarnSparkHadoopUtil.newConfiguration(YarnSparkHadoopUtil.scala:64)
at org.apache.spark.deploy.SparkHadoopUtil.<init>(SparkHadoopUtil.scala:50)
at org.apache.spark.deploy.yarn.YarnSparkHadoopUtil.<init>(YarnSparkHadoopUtil.scala:49)
at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57)
at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
at java.lang.reflect.Constructor.newInstance(Constructor.java:526)
at java.lang.Class.newInstance(Class.java:383)
at org.apache.spark.deploy.SparkHadoopUtil$.liftedTree1$1(SparkHadoopUtil.scala:387)
at org.apache.spark.deploy.SparkHadoopUtil$.yarn$lzycompute(SparkHadoopUtil.scala:385)
at org.apache.spark.deploy.SparkHadoopUtil$.yarn(SparkHadoopUtil.scala:385)
at org.apache.spark.deploy.SparkHadoopUtil$.get(SparkHadoopUtil.scala:410)
at org.apache.spark.deploy.yarn.ApplicationMaster$.main(ApplicationMaster.scala:764)
at org.apache.spark.deploy.yarn.ExecutorLauncher$.main(ApplicationMaster.scala:787)
at org.apache.spark.deploy.yarn.ExecutorLauncher.main(ApplicationMaster.scala)
18/05/17 18:12:24 DEBUG Shell: setsid exited with exit code 0опять хомяк хадупа не виден
у меня он задан в
/usr/local/spark/conf/spark-env.shнаверное это что-то не то, да? ?
и дальше много такого
18/05/17 18:12:35 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ...
18/05/17 18:12:35 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ...
18/05/17 18:12:35 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ...
18/05/17 18:12:36 ERROR ApplicationMaster: Failed to connect to driver at 172.18.0.5:45867, retrying ...172.18.0.5 - ip контейнера
Я в такие моменты начинаю втыкать параметры во все конфиги, в которые их можно воткнуть, а потом, если заработало, то убираю по одному, пока не перестанет работать)
Google
Polina
17.05.2018
16:08:15
я уже в хадуп-енв влепила :D и тут кончилась тачка под докером))
Pavel
18.05.2018
07:59:21
Всем привет! Давно не слышались. Вчера вел переговоры с новой площадкой, которая готова взять на себя расходы и заботы, чтоб привезти на Moscow Spark какую-нибудь звезду. В связи с этим я еще раз кидаю клич и прошу накидывать варианты, кого бы вы хотели увидеть-услышать-выпить пива?
Vova
18.05.2018
08:15:31
Matei Zaharia
Polina
18.05.2018
08:30:12
день третий
поднимаем спарк в докере
сводки с фронта
https://pastebin.com/wpKBRNBk
если я правильно поняла, он пытается стучаться в АМ в нули 0.0.0.0:8032
видимо, не туда приехал yarn-site.xml
Roman
18.05.2018
09:23:51
Потом статью на Хабр с ссылью на рабочий образ ??
Polina
18.05.2018
09:33:25
ахахха, обязательно) поможете из песочницы выбраться
Vishal
18.05.2018
09:40:44
hey guys where can i get USECASES or poc's for practicing in hadoop ingestion tools like pig ,flume,hive etc?
KrivdaAllStars
18.05.2018
09:42:01
Lena
18.05.2018
09:44:36
KrivdaAllStars
18.05.2018
09:45:44
но можно же взять готовый зеппенлин образ
Евгений
18.05.2018
09:48:12
Ну, вдруг)
Google
Polina
18.05.2018
09:49:33
Lena
18.05.2018
09:50:54
Да, у нас к этому жестких требований нет
Старый
18.05.2018
09:54:24
Polina
18.05.2018
09:55:27
потому что я программист инфраструктуры и хочу ?
Старый
18.05.2018
09:56:26
?какие то прям ужасы, ops инженеры скор вымрут
Polina
19.05.2018
11:27:08
Всем привет ещё раз и спасибо за помощь!
день 4, спарк работает, цеппелин работает, пиг работает, но иногда валится pig streaming
первый раз отрабатывает нормально, а на второй падает с NPE не сообщив об этом в логах интерпретатора. Помогает только рестарт интерпретатора
я правильно понимаю, что второй раз он вычитывает из какого-то своего кэша результат? в чём может быть проблема, куда копать? ?
падает и в докере и на тачке
недавно обновляла пиг на 0.16.0 и ставила тез
на тачке используется mapreduce, в докере тез
падает везде
java.lang.NullPointerException
at org.apache.pig.PigServer.registerCode(PigServer.java:658)
at org.apache.pig.parser.RegisterResolver.parseRegister(RegisterResolver.java:53)
at org.apache.pig.tools.grunt.GruntParser.processRegister(GruntParser.java:465)
at org.apache.pig.tools.pigscript.parser.PigScriptParser.parse(PigScriptParser.java:550)
at org.apache.pig.tools.grunt.GruntParser.parseStopOnError(GruntParser.java:231)
at org.apache.pig.PigServer.registerScript(PigServer.java:780)
at org.apache.pig.PigServer.registerScript(PigServer.java:857)
at org.apache.pig.PigServer.registerScript(PigServer.java:820)
at org.apache.zeppelin.pig.PigInterpreter.interpret(PigInterpreter.java:99)
at org.apache.zeppelin.interpreter.LazyOpenInterpreter.interpret(LazyOpenInterpreter.java:97)
at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:498)
at org.apache.zeppelin.scheduler.Job.run(Job.java:175)
at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
at java.util.concurrent.FutureTask.run(FutureTask.java:266)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
at java.lang.Thread.run(Thread.java:748)
Andrew
19.05.2018
12:37:23
Artem
19.05.2018
12:38:59
ошибка выше предоставленных записей
Grigory
19.05.2018
12:42:14
тез 0.7?
Polina
19.05.2018
12:43:58
tez-0.7.1-1.el6.noarch
Старый
19.05.2018
12:48:07
Artem
19.05.2018
12:48:30
Polina
19.05.2018
12:49:04
Старый
19.05.2018
12:49:04
чем сюда
Google
Polina
19.05.2018
12:49:18
в логах интерпретатора пига нет ошибки NPE
Старый
19.05.2018
12:52:40
а в логах контейнера
Polina
19.05.2018
12:56:18
нет контейнера и джобы
оно падает до того
в лог интерпретатора вообще ничего не пишет
Artem
19.05.2018
12:56:46
предоставьте полный лог
Polina
19.05.2018
12:56:55
из ячейки цеппелина
это полный
Artem
19.05.2018
12:57:15
грустно
Polina
19.05.2018
12:57:25
при первом запуске возвращает результат, при втором NPE
угу(
Artem
19.05.2018
12:57:32
пойдемте лучше наебенимся, шаббат же
Старый
19.05.2018
12:58:10
final Log4jFileAppender fa = appender;
final WriterAppender ptk = pigToKettleAppender;
Thread runThread = new Thread() {
public void run() {
try {
int[] executionStatus = grunt
.parseStopOnError(false);
logBasic(BaseMessages
чтот тип такого в настройках?
Oleg
20.05.2018
07:49:05
Цеппелин вообще жуткое нестабильное дерьмо и перезапуск интерпретатора - это штатная операция, без которой он не работает нормально. Также как и перезапуск всего цеппелина с килянием всех Спарк процессов ( следующий этап если с интерпретатором не взлетело). У нас у каждого аналитика свой цеппелин в виртуалке, где он может перезапускать все когад угодно никому не мешая. Плюс все они перезапускаются ночью по крону полностью. Так их также удобно мониторить - кто занял кластер, кто пишет очень много аутпута и пр. вещи.
С нпе хз, много что может быть
Vova
20.05.2018
13:06:41
ад какой...
Andrew
20.05.2018
13:08:18
Быстрый вопрос
Количество spark executors должно быть равно количеству ядер на ноде?
Yurij
20.05.2018
13:11:23
Ну типо ты всего хочешь добиться? Максимальной эффективности?
Google
Artem
20.05.2018
13:12:01
Admin
Artem
20.05.2018
13:12:16
spark.executor.cores = The number of cores to use on each executor
Grigory
20.05.2018
13:13:05
а то там как угодно можно
вон там тебе верно написали, обрати внимания на колво ядер на ехекутор и от колов ядер в кластере твоем.
Andrew
20.05.2018
13:15:57
а то там как угодно можно
Invalid resource request, requested virtual cores < 0, or requested virtual cores > max configured, requestedVirtualCores=4, maxVirtualCores=2
У меня по 2 CPU на ноде, всего нод 5. При параметре spark.executor.cores=4 падает ошибка выше
Grigory
20.05.2018
13:16:29
ну а зачем ты 4 ядра запросил при доустпных двух
каждый экзекутор ток на одной машине может быть
в твоем вариант можно либо 5 экзекуторов по 2 спу каждому дать ну или 10 и каждому по одному ядру выдать
что будет быстрее от твоей задачи зависит
это при учете что эти тачки только под спарк (:
Andrew
20.05.2018
13:18:33
Выходит, рабочий конфиг - только 2 в моем случае?
Grigory
20.05.2018
13:19:07
поч?
один можешь
Andrew
20.05.2018
13:19:27
Grigory
20.05.2018
13:19:47
(:
Andrew
20.05.2018
13:20:03
Спасибо
Polina
20.05.2018
14:15:11
Google
Andrew
20.05.2018
14:26:52
Oleg
20.05.2018
14:40:15
http://lurkmore.to/Чуть_более,_чем_наполовину
Andrew
20.05.2018
21:02:47
Старый
20.05.2018
21:03:37
Эшер
20.05.2018
21:08:18
лол што
Кубинский интернет
Andrew
20.05.2018
21:10:29
лол што
Ну, про чуть менее, чем полностью я в курсе =))
Но не чуть более =)
ilya
22.05.2018
11:14:49
Use Google translate
Или зеркала