Δαρθ
понял
Mr.
Всем доброго времени суток.
Mr.
подскажите как посмотреть какую компрессию имеет zpool
central
central
Как то так
Alexander
Или zpool get all
Mr.
надо два HDD диска разметить для зеркала, и вот думаю какой ashift поставить
edo1
а какая связь с компрессией?
edo1
ИМХО надо ставить 12 в большинстве случаев
edo1
потому что многие hdd уже с секторами по 4к, и большинство прошивок ssd оптимизируется под доступ блоками 4кб в разных бенчмарках, без того же crystaldiskmark не обходится ни один обзор ssd
Mr.
я пока только начинаю работать с zfs по рекомендации коллеги, а так же на ssd поставил 13 так он утвердительно посоветовал
Mr.
Samsung 860 PRO 256gb
Mr.
Честно говоря почитать надо бы, но совсем нет времени, надо лепить, время поджимает
Mr.
Потому и обратился
George
И дефолты он нормально выставит
Иван
Mr.
Mr.
12 лучше чем 13 ))
Mr.
А какой ashift был применен при создании пула уже не увидеть я так понимаю ?
Иван
zdb -C | grep ashift
edo1
edo1
Mr.
не понял вопрос
zpool get ashift на выхлопе куча всего. я создал пул, как узнать какой ashift я выбирал. Понимаю что возможно несу бред, но......
edo1
edo1
Mr.
Бро спасибо. rpool ashift 13 local
Krey
Krey
А не блоков
Krey
Блоки zdb показывает
Andrew
Да, zdb показывает, но эт немного не то, что хочу. Профиль нагрузки больше интересует.
Решение не HCI, а файлстораж, который шарится по nfs и iscsi.
Интересует инфа о размере блоков, которыми нагружается таргет.
Andrew
Мне тут ранее Сергей Голод показывал, как собирать стату поблочно, на линухах, через zfs iostat, очень понравилось. Надеялся, что есть что-то подобное, но не только для linux. Ну и с какой-то аггрегацией сразу.
edo1
а разве zpool iostat работает только для линуха?
Andrew
нет, конечно.
просто в последних релизах там сильно больше информации.
Fedor
А персентилей там пока что нет?
Kolyanius
Всем привет, как можно объяснить, что
команда
fio --name=random-write --ioengine=posixaio --rw=randwrite --bs=4k --size=4g --numjobs=1 --iodepth=1 --runtime=60 --time_based --end_fsync=1
выдает на
оптане write: IOPS=19.3k, BW=75.3MiB/s
на 2*RZ1(по 5 дисков) из старых hdd IOPS=22.9k, BW=89.3MiB/s
sync=standart atime=off comp=lz4
на TrueNAS 12.0
=Андрей=
sync=standard
Полагаю оптан в LOG? При этой установке LOG может быть не задействован.... Это надо проверять, особенно при sync=always
Kolyanius
Nikita
Добрый день. Как полностью удалить информацию о ZFS?
На proxmox был ZFS на двух дисках, сейчас удалил ZFS, кеш zfs, но при извлечении дисков система ищет эти диски.
zpool status/list/import не видит пулов, что можно попробовать сделать?
Владимир
Удалить zfs), хотя это глупо
Григорий
Nikita
wipefs -a
я делал dd if=/dev/zero of=/dev/sxx bs=1M, запись о ZFS стерлась c дисков, но это не помогло.
Ivan
Григорий
На сколько помню, поставить снуля на диски с таблицами zfs с первого раза не получиться. Нужно занулять wipefs, а потом уже ставить ОС.
Nikolay
да, wipefs наше всё
Nikita
Не получилось
Nikita
Подкинул вместо этих дисков два других и все запускается, как быть?)
Nikolay
разделы удалял ? может остались
Ivan
Nikolay
/etc/fstab ?
Nikita
Пуст
Nikita
Ну в плане нет упоминания этих дисков
Nikolay
А сам прокс на zfs ?
Nikita
Нет
Nikolay
Nikita
Через веб интерфейс))
Nikolay
а тут что ? /etc/pve/storage.cfg
Nikolay
Nikolay
хранилки zfs тоже нет ?
George
George
George
Как только включитё синки, сразу будет большая разница
Алексей
Nikita
Алексей
Алексей
но вообще с дисков зфс вычистить можно через zpool labelclear. но это не ваш судя по всему случай