
Eldar
06.10.2018
16:33:24
Админ, удали всех участников "1 2"
В чатах по питону они активно спамят

Sergey
06.10.2018
16:37:53
прошу прощения, навеяло

Google

Evgeny
06.10.2018
16:41:04

Stanislav
06.10.2018
17:20:20

Grigory
06.10.2018
18:37:23
Надо было разные кейсы давать
А то в локальный экстремум очевидно свалилась

Старый
08.10.2018
08:23:17

Sergii
08.10.2018
08:42:39
Привет, сталкивался кто-нибудь с такой ошибкой?
Unable to close file because the last block BP-... does not have enough number of replicas.

Grigory
08.10.2018
08:43:41

Sergii
08.10.2018
08:43:52
2

Alexander
08.10.2018
08:44:33
hdfs в нормальном режиме? stanby случайно не включился? место на датанодах не кончилось?

Sergii
08.10.2018
08:45:28
Вроде все в порядке, свободно еще 20%.
Есть только warning о том что слишком много блоков

Grigory
08.10.2018
08:48:02
а пробовал ребалансировку? или оно отбалансено?

Google

Grigory
08.10.2018
08:48:57
ну и чтоб ворн небеспокоил там в настройках можн конфижить этот параметр))

Sergii
08.10.2018
08:54:14
в обычном режиме таких ошибок нет, но стоит рядом еще запустить какой-нибудь спарк, больше чем на 5 минут, начинается хаос
Есть какой-нибудь способ узнать где узкое место?

Grigory
08.10.2018
08:56:07
похоже в колвах конектов или что-то в этом духе, слишком мног блоков выделяет сразу, я не помню в чем соль, но часто для персиста на тех же спарках ретрай с бекофом на персисте делают, чтоб как раз такое сохранить

Stanislav
08.10.2018
08:56:17

Grigory
08.10.2018
08:57:03
вот да, станислав очень хорошую идею сказал
точно

Sergii
08.10.2018
08:57:15
ага, то есть решение снизить нагрузку?) ну или "забросать идею железом"?

Grigory
08.10.2018
08:57:48
ретрай с бекоффом можно)
посмотреть чо с дисками и сетью

Sergii
08.10.2018
08:58:33
в любом случае, спасибо за советы :) попробуем еще официальному саппорту написать, пусть копаются в логах

Stanislav
08.10.2018
09:04:00
Либо начать клеить данные в большие блоки

Sergii
08.10.2018
09:05:15
ssd дороговато выйдет) наверно, придется все-таки написать склеивающий код)

Artem
08.10.2018
09:06:02
есть ещё предположение - ipv6 вкл/выкл?
Просто наблюдение, ошибка имеет временной херактер, то есть последнняя началась в 11:32:00 и закончалась 11:33:46, то есть все мапперы упали в этот момент, а не в разнобой в разное время
В кронах пусто
и это так было всегда, то есть не только сегодня, а всегда все падало "на одно минуту", но в разное время
И именно с той ошибкой

Nikita Blagodarnyy
08.10.2018
09:27:33
А что у вас за формат хранится и сколько примерно файлов?

Google

Nikita Blagodarnyy
08.10.2018
09:27:47
Может хип неймноды не справляться.

Stanislav
08.10.2018
10:02:03
Может хип неймноды не справляться.
Была б другая ошибка. От неймноды требуется только отдать клиенту список свободных блоков для записи. Дальше клиент сам пишет и ждёт - удачно или нет. Ошибка явно говорит о том, что ио не успевает закомитить реплику

Старый
08.10.2018
11:25:43

Евгений
08.10.2018
11:49:47

Alex
08.10.2018
16:06:55

Рамиль
08.10.2018
16:08:32
если не мейл - то сбер

Ruslan
08.10.2018
17:49:11
Привет, дата инженеры! Я много лет разрабатывал всякие сервисы на python, имею обширный опыт построения микросервисной архитектуры. С некоторых пор заинтересовала тема потоковой обработки данных. Скажите, стоит ли туда соваться без знания Java. И насколько хорошо нужно знать Java, чтобы эффективно использовать Hadoop, Spark и т. д.?

Daniel
08.10.2018
17:50:30
соваться можно, но если хочется серьезно погружаться, то надо и стэк новый знать лучше

Ruslan
08.10.2018
18:03:56
А что под новым стеком подразумевается?
java, jvm?

Daniel
08.10.2018
18:05:24
jvm как платформа доминирующая и scala/java

sherzod
08.10.2018
18:05:28

Daniel
08.10.2018
18:06:17

Uncel
08.10.2018
18:07:12
Будто что-то плохое

Ruslan
08.10.2018
18:07:31
Может быть, для начала пойдёт?)

Renarde
08.10.2018
18:08:02
Джава наверное не обязательна, но Scala однозначно нужна. Дело в том что спарковское апи в питоне для наиболее сложных и/или интересных функций (например, стриминг) всегда немного отстаёт от Scala.

Daniel
08.10.2018
18:08:19
Может быть, для начала пойдёт?)
так про начало я написал что с питоном вкатываться можно без проблем
сложности будут, когда надо тюнить, фиксить, понимать устройство

Uncel
08.10.2018
18:09:31
Хипдампы @ хипдампы

Sergii
08.10.2018
19:38:06
А есть кто-то, кто хоть что-то понимает в том что происходит в jvm спарка? Есть какие-то ресурсы?
Из питона вообще ничего не получается затюнить касательно памяти

Google

Grigory
08.10.2018
19:45:02

Ali
08.10.2018
19:50:28
Слишком толсто
А что именно хотелось бы тюнить? Спарковые конфиги можно проставить так же в pyspark

Daniel
08.10.2018
19:53:41
чтобы крутить ручки надо понять что и ради чего (ну есть конечно большинство этой планеты, которые делает пальцем в небо, но это мягко говоря не дальновидно)
а чтобы диагностировать проблемы то придется и в устройстве платформы хоть как то разбираться (но это конечно от тяжести случаев зависит)
так то можно конечно и совсем без головы работать
и даже весьма успешно и популярно (py4j)

Sergii
08.10.2018
19:56:49
Хотелось бы понять почему Спарк жрет столько сколько жрет. Когда ему чкармливаешь 15 мб файл а потом он падает на оом при map only джобе

Daniel
08.10.2018
20:00:19
ну можно метрики спарка смотреть, можно по коду гадать, а можно смотреть метрики vm
собсно когда первого и второго не хватит, то третьего не особо избежать получится (хотя еще можно забить)
да и не понимаю чего бояться изучить что-то новое
особенно когда только питон в багаже (помадчин.жпг)

Uncel
08.10.2018
20:04:09
ебпф есть, трейсишь все как боженька

Daniel
08.10.2018
20:07:39
ну можно и по наводкам эмп, но зачем

Nikita Blagodarnyy
08.10.2018
20:10:36
А это такая частая задача- понимать что происходит в jvm? Ну кроме статистики gc, естесьно.

Sergii
08.10.2018
20:14:45

Daniel
08.10.2018
20:14:55

Nikita Blagodarnyy
08.10.2018
20:16:37

Sergii
08.10.2018
20:16:57

Daniel
08.10.2018
20:17:49

Sergii
08.10.2018
20:18:13

Daniel
08.10.2018
20:19:02
так да, я ж и не говорил иного
пункт 3 требует знаний уже за рамками апи фреймворка и собственного кода

Nikita Blagodarnyy
08.10.2018
20:19:20

Google

Daniel
08.10.2018
20:20:32
в общем пока все хорошо, то оно всё и не надо =)

Sergii
08.10.2018
20:20:58

Daniel
08.10.2018
20:21:02
но морально стоит быть готовым

Sergii
08.10.2018
20:22:05

Eduard
08.10.2018
21:45:26
https://hortonworks.com/blog/introducing-apache-hadoop-ozone-object-store-apache-hadoop/

Stanislav
08.10.2018
21:55:35

Mikhail
09.10.2018
06:41:49

Daniel
09.10.2018
06:42:21

Mikhail
09.10.2018
06:42:33

Stanislav
09.10.2018
06:42:49

Mikhail
09.10.2018
06:43:06