
Grigory
19.03.2018
09:29:25

Akceptor
19.03.2018
09:30:08


Andrey
19.03.2018
09:40:05
Привет
Никто не сталкивался -
2018-03-19T12:39:10,342 WARN [main ()] org.apache.hadoop.hive.llap.daemon.impl.LlapDaemon: Failed to start LLAP Daemon with exception
java.lang.NoSuchMethodError: org.apache.hadoop.security.authentication.util.KerberosUtil.hasKerberosTicket(Ljavax/security/auth/Subject;)Z
at org.apache.hadoop.security.UserGroupInformation.<init>(UserGroupInformation.java:653) ~[hadoop-common-2.8.3.jar:?]
at org.apache.hadoop.security.UserGroupInformation.loginUserFromSubject(UserGroupInformation.java:844) ~[hadoop-common-2.8.3.jar:?]
at org.apache.hadoop.security.UserGroupInformation.getLoginUser(UserGroupInformation.java:803) ~[hadoop-common-2.8.3.jar:?]
at org.apache.hadoop.security.UserGroupInformation.getCurrentUser(UserGroupInformation.java:676) ~[hadoop-common-2.8.3.jar:?]
at org.apache.hadoop.hive.llap.daemon.impl.LlapDaemon.<init>(LlapDaemon.java:154) ~[hive-llap-server-2.3.2.jar:2.3.2]
at org.apache.hadoop.hive.llap.daemon.impl.LlapDaemon.main(LlapDaemon.java:521) [hive-llap-server-2.3.2.jar:2.3.2]

Google

Grigory
19.03.2018
09:40:48
Andrey версии либ где-то не те
на нодах на всех и на клиентах версии должны совпадать

Andrey
19.03.2018
10:26:55
да, спасибо, нашел

Andrey
19.03.2018
11:27:43
немного оффтопа - кто использовал CloudWatch для загрузки системных логов с ec2 на s3? У них прайс какой-то дикий получается - $0.50 за передачу 1ГБ логов с источника в CloudWatch. Это реально так? За 1ТБ сырых логов придется заплатить $500? Или они там как то жмутся перед отправкой в CloudWatch ?


Alexander
19.03.2018
12:35:36
#Job
Коллеги, приветствую!
Вброшу хорошую вакансию.
В крупную российскую авиакомпанию S7 airlines (Москва, м. Тверская) активно ищем Data Engineer.
Есть крупный отдел из 10+ Data Scientist'ов, сейчас они сами выполняю функции инженеров. Хотим разделить обязанности, для этого ищем хороших инженеров в штат.
В задачах - организовывать витрины/дата сеты для аналитиков (с вас песочница, с аналитика - алгоритмы).
Стек - Hive, Impala, AeroSpike -> Hadoop, Spark.
Объемы - зависят от проекта. От 10гб до нескольких Тб.
По деньгам - в рынке. Меня никак не ограничивали, будем обсуждать с каждым индивидуально.
Белые, соцпакет, плюс очень дешевые билеты для своих.
Если есть любые вопросы или хотите прислать резюме, то пишите в личку или на почту alavrov@star-staff.ru
Апну вакансию.
Всё еще актуально.

Kirill
19.03.2018
12:36:40
Почему может падать Спарк-стриминг джоб с too many open files? ulimit увеличен до 500к

Daniel
19.03.2018
12:37:41

Kirill
19.03.2018
12:38:16
на одной тачке 100к заметил. Насчет пользователя аж задумался, проверю сейчас
Ну да, я ж из-под пользователя смотрю. Падает спустя 24 часа где-то

Sergey
19.03.2018
12:42:16
Апну вакансию.
Всё еще актуально.
так вы заинтересуйте! не пишут - значит не интересно. как ни удивительно, но все хорошие специалиЗды уже сидят в тепленьких местах. они вообще не так уж и любят работу менять (кресло удобное дали, кофе с печеньками пополняют, задач интересных нарезали).
причем речь даже не о деньгах. хотя наверняка многих сподвигнет зашевелиться
речь о нематериальных стимулах. например, гарантируйте наличие симпатичных девушек в команде ))

Александр
19.03.2018
12:46:38

Alexander
19.03.2018
12:47:56

Daria
19.03.2018
12:47:56
А для девушек дают симпатичных мальчиков в команде :D ?

Alexander
19.03.2018
12:48:20

Google

Daniel
19.03.2018
12:48:51
у нас в двх примерно поровну)

Alexander
19.03.2018
12:49:51

Vadim
19.03.2018
12:49:51
я бы чет не рискнул брать на работу персонажа, которого завлекли юбками)

Sergey
19.03.2018
12:49:57
@happyogre вот видите, гендерный вопрос сразу поднимает градус обсуждения! сейчас найдем вам кандидатов/ток ;)

Daniel
19.03.2018
12:50:05

Katerina
19.03.2018
12:50:44
ахахах) у нас тоже поровну - когда два человека на спарк в команде это проще :)

Alexander
19.03.2018
12:52:40
Хорошо про квоты может рассказать СЕО S7 техлаба как раз. Она из США, там прямо вынуждали набирать женщин, негров и латиносов.
Она когда переехала развивать российский офис IBM, ей все равно приходилось отчитываться, почему она не наняла ни одного негра

Kirill
19.03.2018
12:53:13
гуталин решает проблемы отчетности

Sergey
19.03.2018
12:53:44
вот с этого и надо было начинать: "ищем программиздов в штат, чтобы разбавить негров и латиносов" - уже интрига. уже интересно

Alexander
19.03.2018
12:54:26

Alexey
19.03.2018
12:58:28
s/негра/узбека/ для наших условий
но это есть такая у мерикосов дурь, сталкивался.

Alexander
19.03.2018
13:01:03
Самое ироничное, это когда минорити пробили эксперемент по найму в крупные компании через "слепое собеседование".
Найм их только упал. Так что они срочно стали обратно бороться за свои квоты.

Александр
19.03.2018
13:04:04

Alexander
19.03.2018
13:05:22
женщина негр по какой статье идет ?
сразу по двум, берут без собеседования, дают должность без обязанностей, используют как "а вот в прошом году мы наняли Шалилу, мы не расисты".
на самом деле вся эта их гипер-толлеранотность это такой расизм

Alexey
19.03.2018
13:07:44
а женщина-негритянка-лесбиянка уж точно самый востребованный вариант %)

Sergey
19.03.2018
13:09:13
женщина-негритянка-лесбиянка-датаинженер

Yury
19.03.2018
13:09:26
Зачем женщины в команде, если есть кафка?


Alexander
19.03.2018
13:09:26
#Job
Коллеги, приветствую!
Вброшу хорошую вакансию.
В крупную российскую авиакомпанию S7 airlines (Москва, м. Тверская) активно ищем Data Engineer.
Есть крупный отдел из 10+ Data Scientist'ов, сейчас они сами выполняю функции инженеров. Хотим разделить обязанности, для этого ищем хороших инженеров в штат.
В задачах - организовывать витрины/дата сеты для аналитиков (с вас песочница, с аналитика - алгоритмы).
Стек - Hive, Impala, AeroSpike -> Hadoop, Spark.
Объемы - зависят от проекта. От 10гб до нескольких Тб.
По деньгам - в рынке. Меня никак не ограничивали, будем обсуждать с каждым индивидуально.
Белые, соцпакет, плюс очень дешевые билеты для своих.
Если есть любые вопросы или хотите прислать резюме, то пишите в личку или на почту alavrov@star-staff.ru
На вакансию, главное, посмотрите.
У нас команда, к сожалению, не сильно смешанная, в основном все москвичи, короме CEO :)
Тем не менее, все ребята очень сильные в плане IT, с удовольствием примем в команду 2х DE.

Google

Alexey
19.03.2018
13:09:38
в одной из контор, где я работал, в американском офисе была начальница-открытая лесбиянка. вполне нормально с ней работать было, вела себя как мужик.

Daniel
19.03.2018
13:10:37
странно что в этом чате еще не вспомнили Голден Карау

KrivdaAllStars
19.03.2018
13:12:19

Yury
19.03.2018
13:13:36

Alexander
19.03.2018
13:13:43
яп не указаны, каждый пишет на чем хочет?
Ну, учитывая то, что все ДСы сами под себя поднимают хадуп/спарк, обычно это питон.
Но сейчас открыто в этом плане подходим к кандидатам. Разницы, на чем хадуп настраивать, не видим.

KrivdaAllStars
19.03.2018
13:14:58
Но есть же разница

Alexander
19.03.2018
13:17:49
Как я понял, что сейчас нет DE, поэтому и стека конкретного нет. Есть уже поднятые кластеры, но они и так работают. Эта вакансия скорее про новые.
Вот когда команду из 2х хотя бы наберем, тогда и понятно будет, каких нужно добирать.
На всякий случай спросил у тимлида, отвечу попозже.

Daniel
19.03.2018
13:18:36
ну если так, то можете еще в скаловом чате про работу забросить

KrivdaAllStars
19.03.2018
13:23:44

Alexander
19.03.2018
13:24:45

Daniel
19.03.2018
13:24:59
если есть 10 сатанистов, то вероятно пришла пора навести порядок)

Alexander
19.03.2018
13:26:30
Просто обязанности разделить. Когда саентист, который не специализируется в поднятии кластера, тратит на это Х времени, когда Дата Инженер потратил бы Х/2... получается в разы выгоднее.

KrivdaAllStars
19.03.2018
13:27:17
но дата инженер не занимается поднятием кластера, этим ханимаются девопсы
Если нет девопса, он выполняет его функции

Alexander
19.03.2018
13:27:48
Ну окей, поднятием кластера, перекачкой туда нужного типа данных, организации дата сетов.

Daniel
19.03.2018
13:27:53

Alexander
19.03.2018
13:28:15
потом еще впихнуть алгоритм ДСа в прод.
Но опять же, ребят, я рекрутер. Шарю, но по верхам. Тимлид на интервью расскажет в разы лучше.

Sergey
19.03.2018
13:31:40
а давайте just for fun захантим рекрутера из S7?

Google

Anton
19.03.2018
14:25:03
Вы же рекрутер не из s7, а из какого-то агенства...(

Tsh
19.03.2018
14:35:44

Roman
19.03.2018
14:38:53
у них же из ШАДа оксфорда с почётными медалями грамотами и победители межгалактических конкурсов

KrivdaAllStars
19.03.2018
14:39:53

Alexander
19.03.2018
14:47:30
Все ребята дсы адекватные, если не "впихивается", то сесть вместе и подумать, как бы его так поменять, что бы хорошо вошёл в прод

KrivdaAllStars
19.03.2018
14:48:20
Тогда нужно построить процесс разработки с учетом особенностей архитектуры

Alexander
19.03.2018
14:48:39
Уже всё есть, все работает. Просто нужен тот, кто заберет на себя часть непрофильных обязанностей

Alex
19.03.2018
20:52:52
Коллеги, для data quality open source порекомендуйте плз.

Dmitry
19.03.2018
21:58:20

Артем
20.03.2018
03:16:11

Alex
20.03.2018
05:37:31
Спасибо. Качаю. Сейчас проверим.

Nikita
20.03.2018
08:43:42
Всем привет! Кто-то решал задачу записи данных в hbase из structured streaming? Поделитесь пожалуйста опытом, с какой стороны зайти. Столкнулся с некоторыми трудностями в этой задаче

Akceptor
20.03.2018
08:52:41
кто-то в курсе может в какой jar-ке находится класс org.apache.hadoop.metrics2.sink.WasbAzureIaasSink? А то мелкософтовский саппорт морозится с ответом почему-то
а в hadoop-common его нет, видимо какая-то сугубо мелкософт версия существует

Grigory
20.03.2018
09:01:24
В клаент нету?
Hadoop client
И какие вообще жарники в класспасе лежат?

Akceptor
20.03.2018
09:06:52

Google

Akceptor
20.03.2018
09:08:26
в hadoop-client вроде ка никакого кода вообще нету, там только pom.xmlки

Andrey
20.03.2018
09:18:08

Nikita
20.03.2018
09:20:59
спасибо, а не помните, кроме shc какие еще зависимости от hbase надо подгрузить в джобу?

Andrey
20.03.2018
09:23:41

Nikita
20.03.2018
09:24:46
понял, спасибо! с ходу не получилось подружиться с shc, попробую еще тогда

Andrey
20.03.2018
09:25:03

Nikita
20.03.2018
09:25:38
ну разные ошибки валятся, плюс я из pyspark пытался это реализовать

Andrey
20.03.2018
09:28:37

Nikita
20.03.2018
09:30:19
я у себя собрал shc snapshot, передаю как --jar

Grigory
20.03.2018
09:46:14
в hadoop-azure посмотри
эта либа для интеграция в метриками ажуры

Akceptor
20.03.2018
09:53:27

Grigory
20.03.2018
09:53:49
думаю если в настройках кластера поковыряешься, и прост из лог4ж потрешь все ссылки на отсылание даннх в метрики эта проблема уйдет без поиска джарника

Akceptor
20.03.2018
09:54:12