Autumn
А вот на мой вопрос никто так и не ответил, можно ли привести пул в рабочее состояние после замены диска без replace одним лишь scrub? Как гарантированно проверить работоспособность пула? Железобетонно так сказать, а не просто посмотреть что в датасетах что-то есть, да погонять zpool status - ибо сегодня я убедился что ни то ни другое в реале не дает гарантии увидеть проблему в пуле в дикой природе так сказать. К слову после скраба у меня вроде пул жив, сделал zpool clean да и все. Вечерний бэкап уже отработал без ошибок.
George
Autumn
да
Autumn
изначально после замены диска, настройки мультипаза и импорта пула, пул увидел диск и написал 0 ошибок все ок.
Autumn
я пнул его скрабом и понеслась
George
могу только предположить, что на пути до диска что-то закешилось и zfs якобы смог считать uberblock
Autumn
когда закончил, я сделал zpool clean и повторно пнул скрабом, на этот ра ошибок уже не было
George
George
самые противные проблемы, когда диск не просто мрёт, увы
Autumn
сейчас ребутнул сервак, пул автоматом не примонтировался
Autumn
хотя остальные пул в норме
Autumn
импортнул, пул появился, пишет все ок, странно
Autumn
думаю это глюк при старте
Владимир
Владимир
Переодично это когда ты ставишь на крон, а у меня будет выполняться друг за другом с неким таймаутом
Владимир
Владимир
Репликации данных может занять например час, следующая будет через минуту по таймауту и занимает к примеру 30сек
Владимир
Следующая ещё через минуту и занимает 5 сек
Владимир
Это как раз не переодичныйзапуск
Владимир
Вы забываете что для строгой переодичности выполнение репликации в моем случае всегда должно занимать одинаковое время
Vladimir
ребят, оказия некоторая с zfs, есть pve 6й версии на amd epyc процах, материнку сходу не скажу, но какой-то супермикро. zfs не хочет съедать опцию arc_max_size. как-то можно лечить? сталкивался на intel серверах, но там не аффектило и решили не исправлять, а вот на эпиках кушает половину памяти, хотелось бы ограничить.
Vladimir
если проблема не популярная - могу логов пособирать и насыпать
George
George
и объем уже занятого, оно не применяет если уже больше занято
George
проще всего сразу при ребуте выставлять
Vladimir
сейчас покажу как выставляю, секунду
Vladimir
Vladimir
на других серваках ок, на конкретно этой платформе не хочет
Vladimir
Vladimir
граб апдейт и пересбор рамфс не помогает
George
Vladimir
согласен
Vladimir
я первый раз столкнулся месяцев 6 назад на интел платформе в селектеле, на где-то 5 немного разных серверах
Vladimir
там было не критично и я не копал, думал поправят
Vladimir
а сейчас вот на эпике полезло
Vladimir
ладно, если не популярная проблема - я порисёрчу, логов насыплю попозже
Vladimir
пасиб
George
George
Георгий
если проблема на проксмоксе, то полюбасу об этом есть тред на форуме
Dmitry
Коллеги, подскажите по поводу дисков.
Сейчас рабочий ZFS пул из 30 дисков с ashift=12 на 4K дисках по 6ТБ (HUS726T6TAL4204) с двумя hospare.
Собираемся добавить 512E диски по 6ТБ (HUS726T6TAL5204) и добавить их в существующий пул.
Я как понимаю 512Е это только виртуально указано для совместимости со старыми контроллерами.
Но какие могут проблемы с тем, что диски с разными секторами?
Не получил ли на этих дисках худшую производительность пула?
Dmitry
ZFS на FreeNAS
Олег
Dmitry
Олег
Так же слухи что больше 20 дисков в ZFS пул не реккомендуется
Олег
И опять же хотелось бы аргументов)
George
Dmitry
30 дисков в ZFS работает уже 3 года без перебоев.
Dmitry
Shestakow
хороший, вопрос. По идее как я понял из русскоязычных статей, неважно как раз какие диски пользовать. Но с другой стороны, сталкивался в случае с железным raid контроллерам размер выбранного сектора при создании Vdev (от 64 до 512) мог влиять на скорость чтения/записи, особенно рандомного.
George
George
в одном пуле могут быть диски с разным ashift
Shestakow
Как я поянял, к такому пулу добавляются диски, и будет ashift 12
Shestakow
и есть ли разницы в размере сектора диска, при прочих равных
Dmitry
zpool add -o ashift=12 mirror disk1 disk2
Сейчас пул из 30 дисков 4К собранный так:
zpool create -o ashift=12 -o autoreplace=on -o autoexpand=on -O compression=lz4 mypool mirror disk1 disk2 mirror disk3 disk4
Собираемся добавить еще дисков в пул с сектором на диске 512E
zpool add -o ashift=9 mypool mirror disk1 disk2 mirror disk3 disk4
Т.е. хотите сказать это сработает нормально и будет работать стабильно.
Владимир
Владимир
если я верно понимаю, устанавливать ашифт можно только при создании пула и это значение будет там навечно
Владимир
поправьте если я ошибаюсь
Владимир
Владимир
интересно)
Dmitry
Вот тут есть обсуждение https://www.reddit.com/r/zfs/comments/g37vbn/from_the_perspective_of_a_zfs_pool_with_ashift12/?utm_source=share&utm_medium=web2x&context=3
Но как понял не пришли к общему выводу.
George
Dmitry
Dmitry
Сомнения в том, что будет работать быстро, и не будет падения в скорости работы пула
Dmitry
Небольшое сомнение что диски то разные и везде написано что такое лучше в бою не использовать.
Олег
Вообще поведение при разных задержках смущает и разном поведении на одной операции
Autumn
Dmitry