@hadoopusers

Страница 64 из 182
Andrey
10.01.2018
10:19:34
инод свободных куча

sherzod
10.01.2018
10:20:14
lsof на датанодах делал ведь?

Grigory
10.01.2018
10:21:45
может банально чтонить не то с мтаданными?

форматирование какнить изначальное криво прошло

Google
Grigory
10.01.2018
10:22:12
какиенить ноды падали умирали поднимались

Andrey
10.01.2018
10:45:22
вполне может быть, но вопрос как это проверить

Stanislav
10.01.2018
10:46:19
Мониторинг?

Andrey
10.01.2018
11:00:27
нет его ))

Grigory
10.01.2018
11:00:55
)) да никак не проверить... как обычно перебирая варианты(

если есть возможность вторую поднять и копирнуть данные и посмотреть чо будет с машинами

это перфект

Andrey
10.01.2018
11:01:32
точнее, весь мониторинг, который забирает данные из jmx показывает информацию, аналогичную с репортом

Grigory
10.01.2018
11:01:32
если все будет работать из коробки то просто ошибка в мете

а если нет то мы тут сидим такие умные короче и чего-то очевидного не видим

а что с реальным местом? оно соотвествет du sh ?

Andrey
10.01.2018
11:03:12
нет, оно соотвествует данным из репорта

Grigory
10.01.2018
11:03:25
вот это поворот

Google
Andrey
10.01.2018
11:03:30
в том и проблема - не могу найти, что сожрало столько места

скорее всего, на самом деле, есть блоки, не учтенные в метадата, но fsck должен был бы их порезолвить

Andrey
10.01.2018
12:18:45
raw инсталяция

apache vanilla

Georgy
10.01.2018
12:21:31
я бы поставил hadoop-клиент из репозитория cloudera, в нем du умеет показывать занятость места с учетом репликации. Потом пробежался бы еще раз по каталогам в корне и посмотрел, сходятся ли цифры.

Daniel
10.01.2018
12:22:57
А там в изначальном вопросе был выхлоп где с репликацией и без цифры

Grigory
10.01.2018
12:23:16
хадуп 1.x вроде не умел

но это темные времена

Andrey
10.01.2018
12:24:26
подскажите, вот если у меня лежат блоки, но в метадате о них не известно по каким то причинам, fsck покажет эти блоки?

Georgy
10.01.2018
12:27:05
у клоудеры тот же клиент, что и в стандартной поставке
Понял, у хортона не показывает. Я уже увидел начало, где ты указал вывод du c учетом реплики

а можешь показать шапку из hdfs dfsadmin -report ? ну или из web ui показать сколько non-dfs занимает места?

Andrey
10.01.2018
12:55:45
Configured Capacity: 577747876589568 (525.46 TB) Present Capacity: 555411044581427 (505.14 TB) DFS Remaining: 74639441289026 (67.88 TB) DFS Used: 480771603292401 (437.26 TB) DFS Used%: 86.56% Under replicated blocks: 0 Blocks with corrupt replicas: 0 Missing blocks: 0 Missing blocks (with replication factor 1): 0

Non DFS Used: 0 B

Pavel
10.01.2018
12:57:07
хадуп 1.x вроде не умел
хадуп 1.x и на винде запускался

Grigory
10.01.2018
12:57:28
Pavel
10.01.2018
13:00:20
у меня нет
разумеется, нужен бубен

Alexey
10.01.2018
13:04:06
2-й тоже на винде работает с бубном

Google
Grigory
10.01.2018
14:44:54
а это какой такой бубен?

а кстати как кейсы с кросс ос нодами?

Alexey
10.01.2018
14:53:41
а это какой такой бубен?
ему там надо подсовывать какие-то dll для лучшей нативности, но в итоге всё равно тормозит. по десяткой даже в WSL окружении он и то лучше себя ведёт

Grigory
10.01.2018
14:53:48
все да понял

аккумула даже в контейнере на винде плохо работала

и ей надо было кидать дллки

Evgeny
10.01.2018
14:54:26
Non DFS Used: 0 B
https://developer.ibm.com/hadoop/2015/10/22/hdfs-trash/ не может быть корзина?

Andrey
10.01.2018
16:06:48
Да вроде почистил все корзины

тем более в du корзина учитывается

Evgeny
10.01.2018
16:47:06
тем более в du корзина учитывается
На уровне бреда sudo -u hdfs hdfs dfs -du / те-же цифры покажет?

Grigory
10.01.2018
16:47:30
какбуд-то какаято тяжелая мета валяется и которая почемуто недоступна du

но доступна df

потому что как только мы ограничили df то все было ок

Andrey
10.01.2018
16:48:59
На уровне бреда sudo -u hdfs hdfs dfs -du / те-же цифры покажет?
да я и так под hdfs пользователем все делал

Evgeny
10.01.2018
16:49:53
Попробуй ещё из-под Hadoop если он есть

Andrey
10.01.2018
16:50:19
нет, у меня нет такого пользователя

похоже надо сорсы брать, и смотреть как оно считает df и как du

du судя по всему итерирует по всем файлам и суммирует их сайз

а вот df думаю получает из метастора

Google
Evgeny
10.01.2018
17:00:18
Скорее всего так и есть. Получается что итерирует не по всем файлам. Т.е. проблема с правами (нет праве на чтение)

Точно hdfs админ кластера?

Grigory
10.01.2018
17:01:58
послушай

а вот смотри, размер именно datanode папок соотвествует df?

ну типа это выглядит точно как блоки потеряные / не ясно как отформатированые

или размер всего диска куда ты кинул датаноды соотвествует df

Andrey
11.01.2018
08:26:51
какой обычно либой пользуются для работу с ZK на скале?

Grigory
11.01.2018
08:28:56
жава дривер

есть еще твиттер утил он умеет в зукипер

https://github.com/twitter/util/tree/master/util-zk/src/main/scala

Andrey
11.01.2018
08:34:24
спасибо)

https://github.com/twitter/util/tree/master/util-zk/src/main/scala
а доки по сабжу у него есть какие-то?

Grigory
11.01.2018
09:11:54
Хх честно говоря ):

хз *

я без док пользовался

Mikhail
11.01.2018
09:13:54
какой обычно либой пользуются для работу с ZK на скале?
а почему curator не хотите? он довольно приятный

Andrey
11.01.2018
09:15:28
я пока только выбираю ? куратор погуглю, спасибо

Mikhail
11.01.2018
09:16:09
я пока только выбираю ? куратор погуглю, спасибо
https://habrahabr.ru/post/334680/ неплохая статья

Andrey
11.01.2018
14:43:51
Спасибо всем за помощь, проблема решена

KrivdaTheTriewe
11.01.2018
14:44:27
что же было?

Google
Grigory
11.01.2018
14:44:40
да, интересно очень

Andrey
11.01.2018
14:44:46
все было достаточно просто, кластер (HA) когда то обновлялся и после обновления не сделали финализацию

Grigory
11.01.2018
14:45:51
еее косяк в метаданных; отлично

Andrey
11.01.2018
14:45:57
в таком случае (в версии 2.6) хадуп начинает копить данные в %datа node dir%/data/current/%pool%/trash

Grigory
11.01.2018
14:47:51
ну понятно почему квотирование помогало

Andrey
11.01.2018
14:48:04
так оно не помогало

Grigory
11.01.2018
14:48:39
ну так du и df совпадали с квотой если последний делать

Andrey
11.01.2018
14:49:01
квотирование никак не влияло разницу, и на запись данных в трэш - скорее всего тоже, ибо трэш в локальной файловой

блин, в голове каша - мб ты и прав

Grigory
11.01.2018
14:50:23
да там выше есть твои косольные принты)

Andrey
11.01.2018
14:50:57
ок

Andrey
12.01.2018
09:49:41
https://habrahabr.ru/post/334680/ неплохая статья
не сталкивался с ошибкой, когда создаешь new TreeCache, а он выдает ошибку: o.a.c.utils.PathUtils.validatePath not found ?

но сам класс имеется

те я могу вызывать validatePath в своем коде и он отрабатывает

все делаю в спарк-шеле, либа куратора 4.0.0

Страница 64 из 182