Sergey
на zol для вдевов продолжает показывать всю простыню
George
на zol для вдевов продолжает показывать всю простыню
на zol 0.8 оно ограничивает для пула инфу, а -v (диски) не ограничивает Это даже не баг получается, а интересный нюанс, как правильно - хороший вопрос
Sergey
на zol 0.8 оно ограничивает для пула инфу, а -v (диски) не ограничивает Это даже не баг получается, а интересный нюанс, как правильно - хороший вопрос
Ага, именно так, ну вот не ясно, тут либо опции должны быть несовместимы друг с другом, либо фильтровать вывод по всем типам кмк
Sergey
Иначе неочевидное поведение
Sergey
Я наверное открою pr для инфы, а там что-то решится баг или фича)
George
ибо всё же разные вещи и 1 фильтр костыльно на такое натравливать
Sergey
так в pr что сделать то хочешь?)
указать, что поведение странное)
George
👍
Sergey
ну, да)
Sergey
ибо всё же разные вещи и 1 фильтр костыльно на такое натравливать
ну кстати можно же - показывать, если такой параметр не относится к какому-то типу девайсов
George
ну кстати можно же - показывать, если такой параметр не относится к какому-то типу девайсов
ну я за прозрачный вариант с отдельными списками полей, в ишшю можно как раз и обсудить
Sergey
да, уже открываю
Sergey
@gmelikov https://github.com/zfsonlinux/zfs/issues/9928
Vyacheslav
Vyacheslav
Это без slog
Vyacheslav
У меня есть esxi на 8 дисках таких же Но там lsi 9271 1Gb + BBu Тест из vm https://pastebin.com/zv6yHPwz
Vyacheslav
@sgolod Странный результат на последовательную запись без slog Всего 990кб на raid10 из 8 блинов
Vyacheslav
при очереди 1 то же самое
Vyacheslav
ага
Vyacheslav
мне интересно почему seqWrite без slog такой маленький
Сергей
Потому что fsync. Установите для пула/volume sync =none и проверьте ещё раз
Vyacheslav
это в фио?
Сергей
это в фио?
Нет. zfs set rpool -o sync=disabled вроде. И тома унаследуют это свойство
Сергей
Но я не у компа и мог порядок указания параметров напутать
Vyacheslav
А как это повлияет на сохранность данных?
Сергей
А как это повлияет на сохранность данных?
Плохо. Но мы же только для теста чтобы увидеть изменение скорости
Сергей
это в фио?
можно кстати поправить скрипт (.sh) для тестирования, в строке где создаётся вольюм (zfs create), дописать -o sync=disabled: zfs create -V 64G -b $BLOCKSIZE -o compression=off -o sync=disabled ${ZFS_POOL}
Vyacheslav
А в таких тестах есть какой-то смысл? Мне же нужно понять, какая производительность сервера будет на боевых настройках.
Сергей
А в таких тестах есть какой-то смысл? Мне же нужно понять, какая производительность сервера будет на боевых настройках.
если только какие-то данные/ВМ не будут критичными к потере, то для них можно сделать sync=disabled и скорость будет выше. Просто был вопрос - почему скорость записи такая маленькая а в остальном - очевидно что использование SLOG must have)))
George
А в таких тестах есть какой-то смысл? Мне же нужно понять, какая производительность сервера будет на боевых настройках.
Такая настройка на тестах явно показывает есть ли смысл в slog, если разница не большая - то синхронной записи мало/хватает iops и slog не нужен
Sergey
@gmelikov добрый день, вопрос как к знатоку внутренностей, есть struct zfsvfs внутри него objset_t *z_os; /* objset reference */ можно ли этот z_os вытащить через /proc kstat или саму тулзу zfs как-то?
Sergey
не могу найти никак)
Сергей
ну если вы забрались в исходники, то наверное можете посмотреть экспортируется ли это значение в /proc|/sys
George
ну если вы забрались в исходники, то наверное можете посмотреть экспортируется ли это значение в /proc|/sys
+1 , с наскоку не скажу, надо аналогично по коду смотреть @ser_k а чего хотите добиться то?
Sergey
оно экспортируется в имя файлов(правда в измененном виде) статистики отдельных фс, но какраз я пытаюсь зайти с другого конца - отдискаверить эти id что б по ним файлы конкретные смотреть
Sergey
можно конечно при дискавери каждый файл просмотреть и собрать инфу, но там, например, не экспортится статистика по напшотам пока что, но в исходниках написано что может, а тогда это могут быть тысячи файлов)
Sergey
+1 , с наскоку не скажу, надо аналогично по коду смотреть @ser_k а чего хотите добиться то?
ну я и надеялся что может с наскока часто используемый id, а так да продолжу рыться)
Sergey
я просто не настоящий сварщик :D
Сергей
а вообще конечная цель какая?
Sergey
привязать objset-0xXX файлы к конкретным датасетам зайдя с id самих датасетов, на крайний случай буду проходиться по всем objset и оттуда выковыривать имя датасета
Sergey
но как я писал выше - если добавят стату по снапшотам это будут тысячи файлов, хз наколько плохо для зфс их все вермя дергать
Sergey
ну и пытаюсь понять ваще константа ли это
Fedor
а дтрейс под линукс появился вроде?
Fedor
можно через него
Fedor
мож там чего будет
Sergey
можно через него
да не, тут смысл в том, что б эту инфу штатно забирать, понятно что дебагом есть откуда достать)
Сергей
Sergey
там скорости и iopsы по датасетам
Sergey
собственно графики рисовать
Сергей
там скорости и iopsы по датасетам
т.е. в целом по пулу не устраивает? и нужно попробовать найти статистику в разрезе датасетов?
Sergey
ну ее добивили в 0.8 хочу сразу вывести
Sergey
информации в мониторинге много не бывает)
George
там скорости и iopsы по датасетам
А, так бы сразу и сказал
George
как найду кину сегодня
Sergey
А, так бы сразу и сказал
я может несовсем понятно про objset-0x файлы написал, собственно их имя это и содержит
Sergey
вобщем то если оно нигде в явном виде недоступно, то буду лазить по всем файлам и выдегивать эту инфу изнутри
George
вобщем то если оно нигде в явном виде недоступно, то буду лазить по всем файлам и выдегивать эту инфу изнутри
https://github.com/netdata/netdata вот сюда посмотри, в кейсе контейнеров со своими датасетами оно сумело per dataset io нагрузку показать вот issue по данной хотелке так то https://github.com/zfsonlinux/zfs/issues/6763 эх, был тредик в mailing list, но с миграцией на другой движок видимо потерялось, у меня в почте только осталось, там про netdata писали как раз
Sergey
сетерь эта статистика есть в этих файлах в kstat
George
вообще в issue сказали что дорого и хз сделает ли кто-то) там в vfs вопросы были ещё
Сергей
спасибо в нетдате покапаюсь, а для issue по факту работу сделали и его можно закрывать
мне кажется они объяснили что это делать не очень хорошо. Для миллиардов файлов придётся заводить счётчики и это дорого
Sergey
эм, ткнёшь?
# cat /proc/spl/kstat/zfs/onpart1/objset-0x87 47 1 0x01 7 2160 10074257454 515830331899652 name type data dataset_name 7 onpart1/testfs writes 4 0 nwritten 4 0 reads 4 0 nread 4 0 nunlinks 4 0 nunlinked 4 0
Sergey
у меня вобщем то вопрос был в "0x87" что это за id и недоступен ли он где-то в явном виде)
Sergey
но это именно мониторинг по датасетам, не по файлам, в issue его и просили вроде
Сергей
но это именно мониторинг по датасетам, не по файлам, в issue его и просили вроде
по файлам очень дорого по ресурсам получится, по датасетам - уже хорошо)
Sergey
@gmelikov https://github.com/zfsonlinux/zfs/blob/e242b67cee1dbaf09a27e7c78c55c5505ac88ff4/module/zfs/dataset_kstats.c вот реализация
Sergey
по файлам очень дорого по ресурсам получится, по датасетам - уже хорошо)
ну да, естественно, по файлам в общем случае и не надо)
George
@gmelikov https://github.com/zfsonlinux/zfs/blob/e242b67cee1dbaf09a27e7c78c55c5505ac88ff4/module/zfs/dataset_kstats.c вот реализация
ааа, https://github.com/zfsonlinux/zfs/commit/a448a2557ec4938ed6944c7766fe0b8e6e5f6456#diff-0bfd29fd3d339a7728ad9ca731392de0