Autumn
А вот на мой вопрос никто так и не ответил, можно ли привести пул в рабочее состояние после замены диска без replace одним лишь scrub? Как гарантированно проверить работоспособность пула? Железобетонно так сказать, а не просто посмотреть что в датасетах что-то есть, да погонять zpool status - ибо сегодня я убедился что ни то ни другое в реале не дает гарантии увидеть проблему в пуле в дикой природе так сказать. К слову после скраба у меня вроде пул жив, сделал zpool clean да и все. Вечерний бэкап уже отработал без ошибок.
Autumn
да
Autumn
изначально после замены диска, настройки мультипаза и импорта пула, пул увидел диск и написал 0 ошибок все ок.
Autumn
я пнул его скрабом и понеслась
George
могу только предположить, что на пути до диска что-то закешилось и zfs якобы смог считать uberblock
Autumn
когда закончил, я сделал zpool clean и повторно пнул скрабом, на этот ра ошибок уже не было
George
когда закончил, я сделал zpool clean и повторно пнул скрабом, на этот ра ошибок уже не было
Скраб должен был решить все проблемы возможные, или бы на чтении селф хилинг был бы
George
самые противные проблемы, когда диск не просто мрёт, увы
Autumn
сейчас ребутнул сервак, пул автоматом не примонтировался
Autumn
хотя остальные пул в норме
Autumn
импортнул, пул появился, пишет все ок, странно
Autumn
думаю это глюк при старте
Владимир
Переодично это когда ты ставишь на крон, а у меня будет выполняться друг за другом с неким таймаутом
Autumn
Переодично это когда ты ставишь на крон, а у меня будет выполняться друг за другом с неким таймаутом
Ну так это и есть "выполнение с определенной периодичностью", в нашем случае с неким таймаутом, ну да ладно, это игра слов =) Вопрос в конечной задаче - хотите реализовать аналог цефа/гластера но с асинхронной синхронизацией?
Владимир
Репликации данных может занять например час, следующая будет через минуту по таймауту и занимает к примеру 30сек
Autumn
Вот именно что нет тут переодичности, не путайте с таймаутом
Ээээ, проехали =), огласите потом результаты экспериментов. Мне интересно как оно все работает под нагрузкой в таком режиме.
Владимир
Следующая ещё через минуту и занимает 5 сек
Владимир
Это как раз не переодичныйзапуск
Владимир
Вы забываете что для строгой переодичности выполнение репликации в моем случае всегда должно занимать одинаковое время
Vladimir
ребят, оказия некоторая с zfs, есть pve 6й версии на amd epyc процах, материнку сходу не скажу, но какой-то супермикро. zfs не хочет съедать опцию arc_max_size. как-то можно лечить? сталкивался на intel серверах, но там не аффектило и решили не исправлять, а вот на эпиках кушает половину памяти, хотелось бы ограничить.
Vladimir
если проблема не популярная - могу логов пособирать и насыпать
George
и объем уже занятого, оно не применяет если уже больше занято
George
проще всего сразу при ребуте выставлять
Vladimir
конкретизируц "не хочет съедать", команду в студию
обе, и через >> в опции и через конфиг файл, ошибок не выдаёт, просто лимиты не ограничивает
Vladimir
сейчас покажу как выставляю, секунду
Vladimir
на других серваках ок, на конкретно этой платформе не хочет
George
обе, и через >> в опции и через конфиг файл, ошибок не выдаёт, просто лимиты не ограничивает
при ребуте должно принимать, емнип ещё initramfs может потребоваться пересобрать чтобы туда приехало
Vladimir
граб апдейт и пересбор рамфс не помогает
Vladimir
согласен
Vladimir
я первый раз столкнулся месяцев 6 назад на интел платформе в селектеле, на где-то 5 немного разных серверах
Vladimir
там было не критично и я не копал, думал поправят
Vladimir
а сейчас вот на эпике полезло
Vladimir
ладно, если не популярная проблема - я порисёрчу, логов насыплю попозже
Vladimir
пасиб
George
ладно, если не популярная проблема - я порисёрчу, логов насыплю попозже
пока не видел, в issues можешь ещё глянуть вдруг я что забыл
Георгий
если проблема на проксмоксе, то полюбасу об этом есть тред на форуме
Георгий
если проблема на проксмоксе, то полюбасу об этом есть тред на форуме
https://forum.proxmox.com/threads/pve-6-0-cannot-set-zfs-arc_min-and-arc_max.55940/ не ?
Dmitry
Коллеги, подскажите по поводу дисков. Сейчас рабочий ZFS пул из 30 дисков с ashift=12 на 4K дисках по 6ТБ (HUS726T6TAL4204) с двумя hospare. Собираемся добавить 512E диски по 6ТБ (HUS726T6TAL5204) и добавить их в существующий пул. Я как понимаю 512Е это только виртуально указано для совместимости со старыми контроллерами. Но какие могут проблемы с тем, что диски с разными секторами? Не получил ли на этих дисках худшую производительность пула?
Dmitry
ZFS на FreeNAS
Dmitry
по лезвию ходить решили?)
Есть обоснование этому?
Олег
Есть обоснование этому?
Только слухи, к сожалению с отпадающими дисками хаотично, но услышал бы аргументы
Олег
Так же слухи что больше 20 дисков в ZFS пул не реккомендуется
Олег
И опять же хотелось бы аргументов)
Dmitry
30 дисков в ZFS работает уже 3 года без перебоев.
Shestakow
хороший, вопрос. По идее как я понял из русскоязычных статей, неважно как раз какие диски пользовать. Но с другой стороны, сталкивался в случае с железным raid контроллерам размер выбранного сектора при создании Vdev (от 64 до 512) мог влиять на скорость чтения/записи, особенно рандомного.
George
в одном пуле могут быть диски с разным ashift
Shestakow
Как я поянял, к такому пулу добавляются диски, и будет ashift 12
Shestakow
и есть ли разницы в размере сектора диска, при прочих равных
Dmitry
zpool add -o ashift=12 mirror disk1 disk2
Сейчас пул из 30 дисков 4К собранный так: zpool create -o ashift=12 -o autoreplace=on -o autoexpand=on -O compression=lz4 mypool mirror disk1 disk2 mirror disk3 disk4 Собираемся добавить еще дисков в пул с сектором на диске 512E zpool add -o ashift=9 mypool mirror disk1 disk2 mirror disk3 disk4 Т.е. хотите сказать это сработает нормально и будет работать стабильно.
Владимир
если я верно понимаю, устанавливать ашифт можно только при создании пула и это значение будет там навечно
Dmitry
в одном пуле могут быть диски с разным ashift
Но я так понял это утверждение, поправьте меня
Владимир
поправьте если я ошибаюсь
Владимир
интересно)
Dmitry
Вот тут есть обсуждение https://www.reddit.com/r/zfs/comments/g37vbn/from_the_perspective_of_a_zfs_pool_with_ashift12/?utm_source=share&utm_medium=web2x&context=3 Но как понял не пришли к общему выводу.
George
интересно)
ну потестьте на файликах)
George
А ниже сомнения
давайте о конкретике, какие у вас сомнения)
Dmitry
Сомнения в том, что будет работать быстро, и не будет падения в скорости работы пула
Dmitry
Небольшое сомнение что диски то разные и везде написано что такое лучше в бою не использовать.
Олег
Вообще поведение при разных задержках смущает и разном поведении на одной операции
Autumn
Так же слухи что больше 20 дисков в ZFS пул не реккомендуется
ерунда - 48 дисков в пуле, полет нормальный, вот только позавчера менял в нем сдохший диск и тут задавался вопросом по zfs+multipath
Δαρθ
Вообще поведение при разных задержках смущает и разном поведении на одной операции
ну так диски же не синхронно крутятся? значит уже разное поведение, даже у одинаковых
Dmitry
я бы добавлял с ashift=12, у самого диски 512Е на 12-м ашифте, никакой потери производительности нет, я ашифт выбираю исходя из физического размера а не того размера с каким диск "прикидывается"
Вопрос в том, что в пуле будут диски с разными секторами. Ну а 512E я как понимаю умеют и в 4k. А можно ли заставить 512E работать в 4k, может чтото прописать можно у диска?