
Andrey
10.01.2018
10:19:34
инод свободных куча

sherzod
10.01.2018
10:20:14
lsof на датанодах делал ведь?

Grigory
10.01.2018
10:21:45
может банально чтонить не то с мтаданными?
форматирование какнить изначальное криво прошло

Google

Grigory
10.01.2018
10:22:12
какиенить ноды падали умирали поднимались

Andrey
10.01.2018
10:45:22
вполне может быть, но вопрос как это проверить

Stanislav
10.01.2018
10:46:19
Мониторинг?

Andrey
10.01.2018
11:00:27
нет его ))

Grigory
10.01.2018
11:00:55
)) да никак не проверить... как обычно перебирая варианты(
если есть возможность вторую поднять и копирнуть данные и посмотреть чо будет с машинами
это перфект

Andrey
10.01.2018
11:01:32
точнее, весь мониторинг, который забирает данные из jmx показывает информацию, аналогичную с репортом

Grigory
10.01.2018
11:01:32
если все будет работать из коробки то просто ошибка в мете
а если нет то мы тут сидим такие умные короче и чего-то очевидного не видим
а что с реальным местом? оно соотвествет du sh ?

Andrey
10.01.2018
11:03:12
нет, оно соотвествует данным из репорта

Grigory
10.01.2018
11:03:25
вот это поворот

Google

Andrey
10.01.2018
11:03:30
в том и проблема - не могу найти, что сожрало столько места
скорее всего, на самом деле, есть блоки, не учтенные в метадата, но fsck должен был бы их порезолвить

Georgy
10.01.2018
12:18:18

Andrey
10.01.2018
12:18:45
raw инсталяция
apache vanilla

Georgy
10.01.2018
12:21:31
я бы поставил hadoop-клиент из репозитория cloudera, в нем du умеет показывать занятость места с учетом репликации. Потом пробежался бы еще раз по каталогам в корне и посмотрел, сходятся ли цифры.

Grigory
10.01.2018
12:22:43

Daniel
10.01.2018
12:22:57
А там в изначальном вопросе был выхлоп где с репликацией и без цифры

Grigory
10.01.2018
12:23:16
хадуп 1.x вроде не умел
но это темные времена

Andrey
10.01.2018
12:24:26
подскажите, вот если у меня лежат блоки, но в метадате о них не известно по каким то причинам, fsck покажет эти блоки?

Georgy
10.01.2018
12:27:05
а можешь показать шапку из hdfs dfsadmin -report ? ну или из web ui показать сколько non-dfs занимает места?

Andrey
10.01.2018
12:55:45
Configured Capacity: 577747876589568 (525.46 TB)
Present Capacity: 555411044581427 (505.14 TB)
DFS Remaining: 74639441289026 (67.88 TB)
DFS Used: 480771603292401 (437.26 TB)
DFS Used%: 86.56%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0
Non DFS Used: 0 B

Pavel
10.01.2018
12:57:07

Grigory
10.01.2018
12:57:28

Pavel
10.01.2018
13:00:20

Alexey
10.01.2018
13:04:06
2-й тоже на винде работает с бубном

Google

Grigory
10.01.2018
14:44:54
а это какой такой бубен?
а кстати как кейсы с кросс ос нодами?

Alexey
10.01.2018
14:53:41
а это какой такой бубен?
ему там надо подсовывать какие-то dll для лучшей нативности, но в итоге всё равно тормозит.
по десяткой даже в WSL окружении он и то лучше себя ведёт

Grigory
10.01.2018
14:53:48
все да понял
аккумула даже в контейнере на винде плохо работала
и ей надо было кидать дллки

Evgeny
10.01.2018
14:54:26
Non DFS Used: 0 B
https://developer.ibm.com/hadoop/2015/10/22/hdfs-trash/ не может быть корзина?

Andrey
10.01.2018
16:06:48
Да вроде почистил все корзины
тем более в du корзина учитывается

Evgeny
10.01.2018
16:47:06

Grigory
10.01.2018
16:47:30
какбуд-то какаято тяжелая мета валяется и которая почемуто недоступна du
но доступна df
потому что как только мы ограничили df то все было ок

Andrey
10.01.2018
16:48:59

Evgeny
10.01.2018
16:49:53
Попробуй ещё из-под Hadoop если он есть

Andrey
10.01.2018
16:50:19
нет, у меня нет такого пользователя
похоже надо сорсы брать, и смотреть как оно считает df и как du
du судя по всему итерирует по всем файлам и суммирует их сайз
а вот df думаю получает из метастора

Google

Evgeny
10.01.2018
17:00:18
Скорее всего так и есть. Получается что итерирует не по всем файлам. Т.е. проблема с правами (нет праве на чтение)
Точно hdfs админ кластера?

Grigory
10.01.2018
17:01:58
послушай
а вот смотри, размер именно datanode папок соотвествует df?
ну типа это выглядит точно как блоки потеряные / не ясно как отформатированые
или размер всего диска куда ты кинул датаноды соотвествует df

Andrey
11.01.2018
08:26:51
какой обычно либой пользуются для работу с ZK на скале?

Grigory
11.01.2018
08:28:56
жава дривер
есть еще твиттер утил он умеет в зукипер
https://github.com/twitter/util/tree/master/util-zk/src/main/scala

Andrey
11.01.2018
08:34:24
спасибо)

Grigory
11.01.2018
09:11:54
Хх честно говоря ):
хз *
я без док пользовался

Mikhail
11.01.2018
09:13:54

Andrey
11.01.2018
09:15:28
я пока только выбираю ? куратор погуглю, спасибо

Mikhail
11.01.2018
09:16:09

Andrey
11.01.2018
14:43:51
Спасибо всем за помощь, проблема решена

KrivdaTheTriewe
11.01.2018
14:44:27
что же было?

Google

Grigory
11.01.2018
14:44:40
да, интересно очень

Andrey
11.01.2018
14:44:46
все было достаточно просто, кластер (HA) когда то обновлялся и после обновления не сделали финализацию

Grigory
11.01.2018
14:45:51
еее косяк в метаданных; отлично

Andrey
11.01.2018
14:45:57
в таком случае (в версии 2.6) хадуп начинает копить данные в %datа node dir%/data/current/%pool%/trash

Grigory
11.01.2018
14:47:51
ну понятно почему квотирование помогало

Andrey
11.01.2018
14:48:04
так оно не помогало

Grigory
11.01.2018
14:48:39
ну так du и df совпадали с квотой если последний делать

Andrey
11.01.2018
14:49:01
квотирование никак не влияло разницу, и на запись данных в трэш - скорее всего тоже, ибо трэш в локальной файловой
блин, в голове каша - мб ты и прав

Grigory
11.01.2018
14:50:23
да там выше есть твои косольные принты)

Andrey
11.01.2018
14:50:57
ок

Andrey
12.01.2018
09:49:41
но сам класс имеется
те я могу вызывать validatePath в своем коде и он отрабатывает
все делаю в спарк-шеле, либа куратора 4.0.0