@hadoopusers

Страница 75 из 182
Andrey
13.02.2018
15:36:04
а есть среди нас те, кто побеждал в боях с крб+спарк+кафка?

Tsh
13.02.2018
15:40:41
Что такое крб?

Dmitry
13.02.2018
15:41:00
Kerberos

Google
Grigory
13.02.2018
15:49:21
на керберосе кубер поднимай и в кубере спарки и кафки

ну вы понели

Nick
13.02.2018
15:50:25
А нах вообще Керберос

Andrey
13.02.2018
15:53:17
а какие проблемы там?
при создании стрима вываливается в странные ошибки типа EOFException

Grigory
13.02.2018
15:53:21
при создании стрима вываливается в странные ошибки типа EOFException
а какая разница то, докеризировано все пускаешь там как обычные спарки кафки но ток в контейнерах

Andrey
13.02.2018
15:55:19
а какая разница то, докеризировано все пускаешь там как обычные спарки кафки но ток в контейнерах
не ну хочется нативно все сделать - оно же вроде как поддерживает ?

даже в интернетах у людей получалось

А нах вообще Керберос
банки любят керберос

Grigory
13.02.2018
15:56:25
да я пошутил прост неудачно

Nick
13.02.2018
15:56:27
иначе будут с оом падать )

Google
Grigory
13.02.2018
15:56:38
мммм в крадце у меня не было проблем

просто в локалке запер

носекурно

а какие ошибки кербероса?

Nick
13.02.2018
15:56:58
ты мог не ограничивать контеинер по памяти

Grigory
13.02.2018
15:57:05
ты мог не ограничивать контеинер по памяти
... это было про кубер ... абстрактность

Andrey
13.02.2018
15:57:26
а какие ошибки кербероса?
если бы до кербероса дело дошло)

оно валится раньше

Grigory
13.02.2018
15:58:11
а покажи пример ошибки

название банка можно вырезать @gurinderu

Andrey
13.02.2018
15:59:09
o.a.s.SparkException: java.io.EOFException: Received -1 when reading from channel, socket has likely been closed

вообщем не оч информативно

Grigory
13.02.2018
16:00:16
а это когда мастер стартуешь или когда слейв ноды?

Andrey
13.02.2018
16:00:58
когда только создание стрима идет

на драйвере

Grigory
13.02.2018
16:01:46
т.е. кластер норм работает?

Andrey
13.02.2018
16:01:58
да, есессна)

Grigory
13.02.2018
16:02:12
а шелл как работает? драйвер в той же сети?

Andrey
13.02.2018
16:02:29
коллеги, с Azure DataLake Analytics кто-нибудь дело имел? какое-то оно адово медленное, если использовать свой managed код в job-е

Grigory
13.02.2018
16:02:45
как драйвер запущен? эт спарк сабмит или конектишся к мастеру

Google
Andrey
13.02.2018
16:02:48
да, тут все ок. Кластер боевой, работает уже больше года. Крб+спарк + остальное норм работает

спарк-сабмит ярн-клиент в шелле и ярн-кластер не в шелле

Andrey
13.02.2018
16:04:29
А может в секпоинтах чтото старое

Andrey
13.02.2018
16:04:37
при этом нифи прикрутили чтобы он в керберизированную кафку писал и читал

а вот спарк чото не хочет)

Andrey
13.02.2018
16:05:27
*чекпоинтах

Andrey
13.02.2018
16:05:39
А может в секпоинтах чтото старое
до чекпоинтов не доходит)

Nick
13.02.2018
16:08:20
@pomadchin чет спарк настраивать на мезосе заипался

может local[*] воткнуть)

Andrey
13.02.2018
16:09:21
Я не про сохранение а про восстановление

Ты начинаешь читать топик а чекпоиниах инфа о том что ты уже читал

На createDirectStream падает же?

KrivdaAllStars
13.02.2018
16:10:51
@pomadchin чет спарк настраивать на мезосе заипался
так ты же говорил, что все просто, просто из юниверса поставь и все заработает

Grigory
13.02.2018
16:11:26
кривда сечет

Nick
13.02.2018
16:11:29
хотя можно конечно их взять

Andrey
13.02.2018
16:13:10
а вот спарк чото не хочет)
А у тебя не стриминг ...сорри:-)

Nick
13.02.2018
16:14:06
@pomadchin java.lang.NullPointerException at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:38) at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:33) at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext_2(SparkInterpreter.java:398) at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext(SparkInterpreter.java:387) at org.apache.zeppelin.spark.SparkInterpreter.getSparkContext(SparkInterpreter.java:146) at org.apache.zeppelin.spark.SparkInterpreter.open(SparkInterpreter.java:843) at org.apache.zeppelin.interpreter.LazyOpenInterpreter.open(LazyOpenInterpreter.java:70) at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:491) at org.apache.zeppelin.scheduler.Job.run(Job.java:175) at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139) at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511) at java.util.concurrent.FutureTask.run(FutureTask.java:266) at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180) at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) at java.lang.Thread.run(Thread.java:748)

лол

Dmitry
13.02.2018
16:17:31
@pomadchin java.lang.NullPointerException at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:38) at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:33) at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext_2(SparkInterpreter.java:398) at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext(SparkInterpreter.java:387) at org.apache.zeppelin.spark.SparkInterpreter.getSparkContext(SparkInterpreter.java:146) at org.apache.zeppelin.spark.SparkInterpreter.open(SparkInterpreter.java:843) at org.apache.zeppelin.interpreter.LazyOpenInterpreter.open(LazyOpenInterpreter.java:70) at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:491) at org.apache.zeppelin.scheduler.Job.run(Job.java:175) at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139) at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511) at java.util.concurrent.FutureTask.run(FutureTask.java:266) at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180) at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624) at java.lang.Thread.run(Thread.java:748)
2 варианта: 1. Простой: перезапусти интерпреттер 2. Если не поможет: внимательно кури логи цеппелина на сервере - там будет информация, говорящая о том - почему он контекст запустить не может.. Например - указана папка с jarниками, в которой есть симлинк, ведущий вникуда

Google
Grigory
13.02.2018
16:21:51
@gurinderu да те правильно подсказали

Nick
13.02.2018
16:22:00
да

Grigory
13.02.2018
16:22:04
еще может быть, что ты в класспас сунул не ту либу и случился какойто косяк

Nick
13.02.2018
16:22:15
только вот докер имедж эт и он рестартится

не над интерпретатор перезапускать

export SPARK_EXECUTOR_URI=<URL of spark-2.2.1.tar.gz uploaded above>.

ппц

Dmitry
13.02.2018
16:39:07
export SPARK_EXECUTOR_URI=<URL of spark-2.2.1.tar.gz uploaded above>.
А назачем тебе его трогать? Все что надо - это spark_home (или как-то так) надо правильно задать, ну и hive/conf в класспас добавить для удобства....

После этого он вполне себе работает..

Остальное - уже украшательство... Например заставить его работать под авторизованным пользователем (для контроля и для работы с пулами в ярне) Ещё там с чем то секс был, не помню уже.. Но для старта ему почти ничего не нужно

Nick
13.02.2018
16:42:26
Ну вот хз

Над глянуть что там за spark_home

Dmitry
13.02.2018
16:44:33
https://zeppelin.apache.org/docs/0.7.3/interpreter/spark.html#configuration

Надо указать: 1. Мастер ярна 2. Спарк_хоум 3. Параметры контейнеров в ярне

Остальное (для начала) можно не трогать

Nick
13.02.2018
16:46:17
У меня нет ярна

Думаю что может быть не правильный мезос урл

Над проверить

Dmitry
13.02.2018
16:47:13
Он по сути формирует консольную команду spark_submit

Так что можешь попробовать там мезос указать.. может сработает )

Google
Dmitry
13.02.2018
16:48:38
Ну либо local[100500] ?

Вроде он умеет с мезос работать

Только НЕ рекомендую через настройки интерпреттера работать.. как минимум у меня они не применлись.. Надо править файлик - тогда все работает

Nick
13.02.2018
17:04:22
Они ж файл перезаписывают

Какая разница)

Dmitry
13.02.2018
17:06:51
Там как-то хитро... Есть файл conf/zeppelin-env.sh , он подключается и реально применяется - в итоге я через него всё настроил А есть настройки в гуи - они как-то на половину работают, как минимум в спарк-интерпреттере.... Тут работают, там не работают...

Nick
14.02.2018
07:34:07
В общем решил проблему, но чем решилась непонятно

Рандомно чтот натыкал

Oleksandr
14.02.2018
07:48:07
Рандомно чтот натыкал
Всегда работает для меня.

Главное потом ещё незадокументировать.

Nick
14.02.2018
07:48:36
Ещё момент как это масштабировать

Прост второй инстанса и хапрокси будет ли достаточно

Страница 75 из 182