Δαρθ
понял
Krey
В смысле руками собрать статистику по всем файлам?
Могу дать прогу которая выдаёт статистику по размерам файлов
Mr.
Всем доброго времени суток.
Mr.
подскажите как посмотреть какую компрессию имеет zpool
central
Как то так
Alexander
Или zpool get all
Mr.
zfs get all
мерси. ! поглядел
Mr.
надо два HDD диска разметить для зеркала, и вот думаю какой ashift поставить
edo1
а какая связь с компрессией?
Mr.
а какая связь с компрессией?
да это я уже посмотрел, основной пул. щас надо создать второй. На первом ssd и ashift поставил 13
edo1
ИМХО надо ставить 12 в большинстве случаев
edo1
потому что многие hdd уже с секторами по 4к, и большинство прошивок ssd оптимизируется под доступ блоками 4кб в разных бенчмарках, без того же crystaldiskmark не обходится ни один обзор ssd
Mr.
я пока только начинаю работать с zfs по рекомендации коллеги, а так же на ssd поставил 13 так он утвердительно посоветовал
Mr.
Samsung 860 PRO 256gb
Mr.
Честно говоря почитать надо бы, но совсем нет времени, надо лепить, время поджимает
Mr.
Потому и обратился
George
я пока только начинаю работать с zfs по рекомендации коллеги, а так же на ssd поставил 13 так он утвердительно посоветовал
Стандартная практика 12 для хдд, 13 для ссд. Вообще если не понимаете как это выяснить - стоит довериться zfs, он и базу дисков содержит выделяющихся
George
И дефолты он нормально выставит
Mr.
zfs get compressratio
ставлю через proxmox там всегда 12 советует и на SSD ))
Mr.
12 лучше чем 13 ))
Mr.
А какой ashift был применен при создании пула уже не увидеть я так понимаю ?
Иван
zdb -C | grep ashift
edo1
zdb -C | grep ashift
zpool get ashift же
edo1
12 лучше чем 13 ))
обоснование?
Иван
zpool get ashift же
Согласен, так приавильнее.
Mr.
12 лучше чем 13 ))
это не к теме, а типа шутка
Mr.
zdb -C | grep ashift
cannot open '/etc/zfs/zpool.cache': No such file or directory
Mr.
zpool get ashift же
да понял. а как там понять 12 или 13 выбран
Mr.
не понял вопрос
zpool get ashift на выхлопе куча всего. я создал пул, как узнать какой ashift я выбирал. Понимаю что возможно несу бред, но......
edo1
Mr.
Бро спасибо. rpool ashift 13 local
Mr.
«куча всего» — это хелп по команде, судя по всему ))))
Буду просвещаться. На все времени катастрофически не хватает. утром ложися утром же и встаешь, хуё-мое и уже ночь
Andrew
Могу дать прогу которая выдаёт статистику по размерам файлов
А есть что-то готовое, что может дать стату по используемому размеру блоков, типа liveoptics, но без выгрузки в чужие сервисы?
Krey
А есть что-то готовое, что может дать стату по используемому размеру блоков, типа liveoptics, но без выгрузки в чужие сервисы?
Не знаю что такое liveoptics. Просто себе прогу писал, показывает удобно стату по размеру файлов
Krey
А не блоков
Krey
Блоки zdb показывает
Andrew
Да, zdb показывает, но эт немного не то, что хочу. Профиль нагрузки больше интересует. Решение не HCI, а файлстораж, который шарится по nfs и iscsi. Интересует инфа о размере блоков, которыми нагружается таргет.
Andrew
Мне тут ранее Сергей Голод показывал, как собирать стату поблочно, на линухах, через zfs iostat, очень понравилось. Надеялся, что есть что-то подобное, но не только для linux. Ну и с какой-то аггрегацией сразу.
edo1
а разве zpool iostat работает только для линуха?
Andrew
нет, конечно. просто в последних релизах там сильно больше информации.
Fedor
А персентилей там пока что нет?
Kolyanius
Всем привет, как можно объяснить, что команда fio --name=random-write --ioengine=posixaio --rw=randwrite --bs=4k --size=4g --numjobs=1 --iodepth=1 --runtime=60 --time_based --end_fsync=1 выдает на оптане write: IOPS=19.3k, BW=75.3MiB/s на 2*RZ1(по 5 дисков) из старых hdd IOPS=22.9k, BW=89.3MiB/s sync=standart atime=off comp=lz4 на TrueNAS 12.0
=Андрей=
sync=standard Полагаю оптан в LOG? При этой установке LOG может быть не задействован.... Это надо проверять, особенно при sync=always
Nikita
Добрый день. Как полностью удалить информацию о ZFS? На proxmox был ZFS на двух дисках, сейчас удалил ZFS, кеш zfs, но при извлечении дисков система ищет эти диски. zpool status/list/import не видит пулов, что можно попробовать сделать?
Владимир
Удалить zfs), хотя это глупо
Nikita
Удалить zfs), хотя это глупо
да тогда уж proxmox с нуля поставить) Но не хочется чёт )
Nikita
wipefs -a
я делал dd if=/dev/zero of=/dev/sxx bs=1M, запись о ZFS стерлась c дисков, но это не помогло.
Григорий
На сколько помню, поставить снуля на диски с таблицами zfs с первого раза не получиться. Нужно занулять wipefs, а потом уже ставить ОС.
Nikolay
да, wipefs наше всё
Nikita
Не получилось
Nikita
Подкинул вместо этих дисков два других и все запускается, как быть?)
Nikolay
разделы удалял ? может остались
Nikita
разделы удалял ? может остались
Ну если даже диски другие он воспринимает как родные) Где проблема с проверкой устройств sdc, sdd
Nikolay
/etc/fstab ?
Nikita
Пуст
Nikita
Ну в плане нет упоминания этих дисков
Nikolay
А сам прокс на zfs ?
Nikita
Нет
Nikolay
Нет
а как удалял zfs ?
Nikita
Через веб интерфейс))
Nikolay
а тут что ? /etc/pve/storage.cfg
Nikita
а тут что ? /etc/pve/storage.cfg
тоже нет упоминания этих дисков
Nikolay
хранилки zfs тоже нет ?
George
Как только включитё синки, сразу будет большая разница
Алексей
(я удалил)
странно!
Алексей
но вообще с дисков зфс вычистить можно через zpool labelclear. но это не ваш судя по всему случай