Станислав
Роман
Georg🎞️🎥
Кэш на чтение хоть у кого то работал ?
Станислав
Fedor
когда ты читаешь одно и то же - работает
Fedor
если у тебя есть набор горячих данных, чтение по нему производится из кеша
Ivan
я же правильно понял что речь об l2arc ?
Roman
Vladislav
Vladislav
Georg🎞️🎥
Fedor
значит, данные не горячие используешь, переиспользования нет
Georg🎞️🎥
Fedor
получается, что нет
Fedor
рендер из чего? из нарезок клипов?
Alexander
Потоковое чтение в zfs работает нехорошо. Помимо кэша на чтение, еще добавляется плохой prefetch. У меня он никогда не показывал > 35% попадания. zfs_prefetch_disable=1 не решает проблему скорости чтения - все операции чтения после этого идут в sync_read (в терминах zfs), а оно видимо медленнее чем async_read, так что результат в итоге почти тот же.
Причем проблемы с потоковым чтением на тесте (frametest) есть даже на только что созданном (recordsize=1M) пустом томе (чтение почти в 2 раза хуже записи - я где-то выше приводил результаты)...
Alexander
А вот еще прикол - draid2:8d:1s:41c recordsize=1M том + special. Тест только на потоковое чтение 1М блоками. Но оно зачем-то пишет по 4к на каждый диск )) zfs правда 2.1.15...
https://pastebin.com/VJjpxU1F
Alexander
atime=off
George
Mikhail
@gmelikov @neurox @simubishi
Alexander
обновите до 2.2, там такие дефолты уже лучше
С zfs-2.2.6 и такой же конфигурацией тома:
- скорость записи такая же
- чтение существенно лучше (думается за счет лучшего prefetch. Вернее даже думается не из за prefetch (ибо судя по arc_summary Prefetch data misses=100%, а из за того, что все чтение теперь идет в async_read, а оно видимо быстрее, чем sync_read - туда раньше шла примерно половина чтения). И все равно пишет по 4к на каждый диск при каждой операции чтения.
Я использую multipathd и тогда zfs не создает партиции, а использует диск целиком. Может из за этого?
George
Alexander
George
Можно atime=off явно выставить
George
Alexander
Можно atime=off явно выставить
Я так и сделал:
# zfs get all|grep atime
pv2h00 atime off local
pv2h00 relatime on default
pv2h00/z01 atime off inherited from pv2h00
pv2h00/z01 relatime on default
pv2h01 atime off local
pv2h01 relatime on default
pv2h01/z02 atime off inherited from pv2h01
pv2h01/z02 relatime on default
George
Alexander
Но странно - прямо четко пишет 1 4к блок
Vladislav
Mikhail
@gmelikov @neurox @simubishi
Alexander
fio тоже пишет 1 4к блок
Vladislav
Vladislav
И смотришь какой блок и какой процесс его дёргает
Vladislav
fatrace ещё
Vladislav
Vladislav
Процесс?
Vladislav
Какой блок дёргает?
Vladislav
Всегда один и тот же?
Vladislav
Разный?
Alexander
# btrace -a write /dev/sdfn
130,144 25 1 0.000000000 15336 A W 7814036984 + 8 <- (253,102) 7814036984
130,144 25 2 0.000002465 15336 D W 7814036984 + 8 [z_null_iss]
130,144 25 3 0.028183332 0 C W 7814036984 + 8 [0]
130,144 24 1 1.005512031 15336 A W 504 + 8 <- (253,102) 504
130,144 24 2 1.005514515 15336 D W 504 + 8 [z_null_iss]
130,144 24 3 1.020574053 24654 C W 504 + 8 [0]
130,144 28 1 2.010994067 15336 A W 7814036472 + 8 <- (253,102) 7814036472
130,144 28 2 2.010996017 15336 D W 7814036472 + 8 [z_null_iss]
130,144 28 3 2.033755507 0 C W 7814036472 + 8 [0]
130,144 18 1 3.016968622 15336 A W 1016 + 8 <- (253,102) 1016
130,144 18 2 3.016970925 15336 D W 1016 + 8 [z_null_iss]
130,144 18 3 3.038148639 0 C W 1016 + 8 [0]
Vladislav
я тут на FreeBSD 14.1 словил паник с ZFS
VERIFY(avl_find(tree, new_node, &where) == NULL) failed
https://hastebin.com/share/ukudecugiy.bash
Непонятно, где репортить и в проекте FreeBSD и ZFS ?
😊Ɛѵցҽղìվ
добрый вечер, подскажите, есть debian, есть 4 диска на другой машине они работают в zraid2, как их можно примонтировать в debian, чтобы от туда достать информацию?
Fedor
Евгений, нужно срочно пройти капчу, иначе кикнет
Fedor
ответ - отмонтировать на старой системе, переставить диски в новую, примонтировать
Fedor
zfs import/zfs export
Fedor
если надо сделать удаленно, тогда можно заэкспортить их, например, через какой-нибудь нфс. в таком случае можно получить доступ только к файловой системе, зволы будут не видны
Fedor
Fedor
зволы можно отдать через iscsi
😊Ɛѵցҽղìվ
zfs import/zfs export
мне потом их вернуть надо )))
у меня сейчас proxmox на ssd обычной, она умирает, послушал умных людей, сказали поставь 4 маленьких диска в zraid2 и будет, счастье. разжился на 4х256пи ssd. А вот как перенести папку pve не знаю. ))))
Я в линуксе всего 3 месяца ))) вот учусь
Fedor
если вернуть - экспорт из новой машины, переставить диски, импорт на старой
Fedor
если на зфс находится и рут, надо будет чуть повеселиться с точками монтирования
Fedor
в прикрепленных находится дока по зфс, в целом немного поигравшись с примерами из конфигурации, станет понятно, что к чему
😊Ɛѵցҽղìվ
понял, что сложно. Ладно на живую буду копировать
George
Nikita
Vladislav
Vladislav
Я ещё не оформил pr.
И нет пока полного bt
Fedor
Лучше issue как минимум
Vladislav
Fedor
привет
есть 18 дисков 8Tb
понятно, что raidz2 не производительность)
планирую сделать 3 raidz-2 по 6 + SLOG
нагрузка разная - и последовательные чтение, запись и рандомные чтение/запись
есть ли альтернативные варианты, чтобы в производительности особо не терять?
Georg🎞️🎥
Georg🎞️🎥
Ivan
Roman
Georg🎞️🎥
Fedor
Fedor
special на ssd имеет смысл добавить?
Fedor
Станислав