Andrey
13.02.2018
15:36:04
а есть среди нас те, кто побеждал в боях с крб+спарк+кафка?
Tsh
13.02.2018
15:40:41
Что такое крб?
Dmitry
13.02.2018
15:41:00
Kerberos
Grigory
13.02.2018
15:49:02
Google
Grigory
13.02.2018
15:49:21
на керберосе кубер поднимай и в кубере спарки и кафки
ну вы понели
Nick
13.02.2018
15:50:25
А нах вообще Керберос
Andrey
13.02.2018
15:53:17
Grigory
13.02.2018
15:53:21
Andrey
13.02.2018
15:55:19
даже в интернетах у людей получалось
Nick
13.02.2018
15:56:06
Grigory
13.02.2018
15:56:25
да я пошутил прост неудачно
Nick
13.02.2018
15:56:27
иначе будут с оом падать )
Google
Grigory
13.02.2018
15:56:38
мммм в крадце у меня не было проблем
просто в локалке запер
носекурно
а какие ошибки кербероса?
Nick
13.02.2018
15:56:58
ты мог не ограничивать контеинер по памяти
Grigory
13.02.2018
15:57:05
Andrey
13.02.2018
15:57:26
оно валится раньше
Grigory
13.02.2018
15:58:11
а покажи пример ошибки
название банка можно вырезать @gurinderu
Andrey
13.02.2018
15:59:09
o.a.s.SparkException: java.io.EOFException: Received -1 when reading from channel, socket has likely been closed
вообщем не оч информативно
Grigory
13.02.2018
16:00:16
а это когда мастер стартуешь или когда слейв ноды?
Andrey
13.02.2018
16:00:58
когда только создание стрима идет
на драйвере
Grigory
13.02.2018
16:01:46
т.е. кластер норм работает?
Andrey
13.02.2018
16:01:58
да, есессна)
Grigory
13.02.2018
16:02:12
а шелл как работает?
драйвер в той же сети?
Andrey
13.02.2018
16:02:29
коллеги, с Azure DataLake Analytics кто-нибудь дело имел? какое-то оно адово медленное, если использовать свой managed код в job-е
Grigory
13.02.2018
16:02:45
как драйвер запущен? эт спарк сабмит или конектишся к мастеру
Google
Andrey
13.02.2018
16:02:48
да, тут все ок. Кластер боевой, работает уже больше года. Крб+спарк + остальное норм работает
спарк-сабмит ярн-клиент в шелле и ярн-кластер не в шелле
Andrey
13.02.2018
16:04:29
А может в секпоинтах чтото старое
Andrey
13.02.2018
16:04:37
при этом нифи прикрутили чтобы он в керберизированную кафку писал и читал
а вот спарк чото не хочет)
Andrey
13.02.2018
16:05:27
*чекпоинтах
Andrey
13.02.2018
16:05:39
Nick
13.02.2018
16:08:20
@pomadchin чет спарк настраивать на мезосе заипался
может local[*] воткнуть)
Andrey
13.02.2018
16:09:21
Я не про сохранение а про восстановление
Ты начинаешь читать топик а чекпоиниах инфа о том что ты уже читал
На createDirectStream падает же?
KrivdaAllStars
13.02.2018
16:10:51
Grigory
13.02.2018
16:11:26
кривда сечет
Nick
13.02.2018
16:11:29
хотя можно конечно их взять
Andrey
13.02.2018
16:13:10
Nick
13.02.2018
16:14:06
@pomadchin
java.lang.NullPointerException
at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:38)
at org.apache.zeppelin.spark.Utils.invokeMethod(Utils.java:33)
at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext_2(SparkInterpreter.java:398)
at org.apache.zeppelin.spark.SparkInterpreter.createSparkContext(SparkInterpreter.java:387)
at org.apache.zeppelin.spark.SparkInterpreter.getSparkContext(SparkInterpreter.java:146)
at org.apache.zeppelin.spark.SparkInterpreter.open(SparkInterpreter.java:843)
at org.apache.zeppelin.interpreter.LazyOpenInterpreter.open(LazyOpenInterpreter.java:70)
at org.apache.zeppelin.interpreter.remote.RemoteInterpreterServer$InterpretJob.jobRun(RemoteInterpreterServer.java:491)
at org.apache.zeppelin.scheduler.Job.run(Job.java:175)
at org.apache.zeppelin.scheduler.FIFOScheduler$1.run(FIFOScheduler.java:139)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
at java.util.concurrent.FutureTask.run(FutureTask.java:266)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$201(ScheduledThreadPoolExecutor.java:180)
at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
at java.lang.Thread.run(Thread.java:748)
лол
Dmitry
13.02.2018
16:17:31
Google
Grigory
13.02.2018
16:21:51
@gurinderu да те правильно подсказали
Nick
13.02.2018
16:22:00
да
Grigory
13.02.2018
16:22:04
еще может быть, что ты в класспас сунул не ту либу и случился какойто косяк
Nick
13.02.2018
16:22:15
только вот докер имедж эт и он рестартится
не над интерпретатор перезапускать
export SPARK_EXECUTOR_URI=<URL of spark-2.2.1.tar.gz uploaded above>.
ппц
Dmitry
13.02.2018
16:39:07
После этого он вполне себе работает..
Остальное - уже украшательство...
Например заставить его работать под авторизованным пользователем (для контроля и для работы с пулами в ярне)
Ещё там с чем то секс был, не помню уже..
Но для старта ему почти ничего не нужно
Nick
13.02.2018
16:42:26
Ну вот хз
Над глянуть что там за spark_home
Dmitry
13.02.2018
16:44:33
https://zeppelin.apache.org/docs/0.7.3/interpreter/spark.html#configuration
Надо указать:
1. Мастер ярна
2. Спарк_хоум
3. Параметры контейнеров в ярне
Остальное (для начала) можно не трогать
Nick
13.02.2018
16:46:17
У меня нет ярна
Думаю что может быть не правильный мезос урл
Над проверить
Dmitry
13.02.2018
16:47:13
Он по сути формирует консольную команду spark_submit
Так что можешь попробовать там мезос указать.. может сработает )
Google
Dmitry
13.02.2018
16:48:38
Ну либо local[100500]
?
Вроде он умеет с мезос работать
Только НЕ рекомендую через настройки интерпреттера работать.. как минимум у меня они не применлись..
Надо править файлик - тогда все работает
Nick
13.02.2018
17:04:22
Они ж файл перезаписывают
Какая разница)
Dmitry
13.02.2018
17:06:51
Там как-то хитро...
Есть файл conf/zeppelin-env.sh , он подключается и реально применяется - в итоге я через него всё настроил
А есть настройки в гуи - они как-то на половину работают, как минимум в спарк-интерпреттере....
Тут работают, там не работают...
Nick
14.02.2018
07:34:07
В общем решил проблему, но чем решилась непонятно
Рандомно чтот натыкал
Oleksandr
14.02.2018
07:48:07
Главное потом ещё незадокументировать.
Nick
14.02.2018
07:48:36
Ещё момент как это масштабировать
Прост второй инстанса и хапрокси будет ли достаточно