Sergei
sdn и sdr входят в mirror
Sergei
после чего он выглядит так
Ivan
у меня такое было с одним диском когда тесты на нём через fio проводил )
Ivan
не выключая из зеркала
Ivan
после скраба и ресильвера всё залечилось. а что делать когда полностью зеркало побито - идти за бэкапами.
Ivan
или мб у тебя smr диск ?
Sergei
это ssd
Alexander
Поправлю Сергея вопрос чуть чуть в другом, после нескольких дней перестало попадать что либо в логс
Alexander
Sergei
Sergei
на slog дисках
Sergei
Alexander
при этом смарты дисков в порядке
Dmitry
а вот вопрос у меня созрел, как бы мониторить производительность - полосу, иопсы и латенси наилучшим способом? Желательно с высоким разрешением - несколько раз в секунду и под BSD. Нарыл на гитхабе скрипт для dtrace но он какие-то странные цифры показывает
Dmitry
Dmitry
натравливал iostat на длительный промежуток, так тот изредка писал вот такое:
da0 8315 50976 292615.4 401.4 -1 -67 -16461 -58 0 0
Vladislav
Vladislav
Dmitry
а более прямого и короткого пути нету? ))
Vladislav
Ну, посмотрите, как bsnmp снимает
Vladislav
Вот латенси я не видел на FreeBSD, на линуксе есть ioping
Владимир
https://habr.com/ru/post/344204/
Fedor
https://habr.com/ru/post/344204/
таблицы в целом сходятся с реальной практикой.
От себя скажу, для сетевых хранилищ в проксмоксе был выбран зфс, так как для требуемого функционала(снапшоты) его пенальти на тестах ниже, чем даже два снапшота в qcow.
Владимир
Владимир
то есть ты не заметил что этот придурок сделал зфс с блоком 128к и тестировал его 4к запросами?))
Владимир
чёёёё
Fedor
заметил, конечно, но да хрен с ним)
Владимир
и то что он думает что в zraid есть 0
Fedor
я только циферки смотрел.
если не ошибаюсь, кстати, в блоках по 4к, пишушихся в неаллоцированные области объекта, пишутся не 128к, а 4. @gmelikov поправь, пожалуйста.
Fedor
ещё если посмотреть - интересно, зачем он пытался буферизировать мдадм. я на тестах у себя вообще отключал все слоги, арки и тому подобное
George
я только циферки смотрел.
если не ошибаюсь, кстати, в блоках по 4к, пишушихся в неаллоцированные области объекта, пишутся не 128к, а 4. @gmelikov поправь, пожалуйста.
Iirc нет, размер блока файла меньше recordsize только в одном случае - когда размер файла меньше recordsize. Ну и частный случай с компрессией, оставшиеся 124к нулей она сожмёт, но это касается только записанного на диск, в озу будет всё равно момент, когда блок будет не сжатым и размером 128к.
В неаллоцированные области без сжатия должно писаться полным размером блока, не видел исключений на эту тему
Fedor
Олег
День добрый. Есть реккомендации по использованию планировщика диска в zfs? сейчас mq-deadline, 50\50 read\write
nikolay
немного наивный вопрос, но на всякий случай хочу уточнить. верно же то, что я могу как расширять так и уменьшать размер zvol "налету", при условии что fs которая создана на нем поддерживает сжатие /расширение?
Алексей
Действительно интересно
Олег
Ivan
а зачем сжимать когда есть тонкое размещение и дискард ?
ivdok
George
ivdok
ivdok
Хотя вообще странно, что CoW, а проблема фрагментации всё ещё есть
George
George
ivdok
так с cow от фрагментации никуда особо и не денешься
А почему бы при, допустим, инвалидации старых блоков, не считывать contiguous пространство, и если места в пуле больше чем фрагментированный zvol, то делать рефы на новое пространство, в фоне копировать блоки и инвалидировать старые, а по-окончаннии не повторить этот цикл?
Ivan
ivdok
ivdok
А волюм как был на стороне гипервизора раздутый, так и останется
ivdok
Ivan
чейто ?
Ivan
Ivan
вот эти параметры вполне работают в сторону уменьшения с дискардом
Ivan
или я неправильно понимаю всё ?
George
nikolay
Andrew
Чатик, доброго.
Подскажите.
Есть машинка с xigmanas, используется для хранения бэкапов.
В процессе первичного zfs send/recv с нового сервера она сдохла.
Поменяли машинку, загрузился с той-же флешки, отработал scrub, пытаюсь ещё раз запустить туда-же копию.
Источник -- proxmox
zfs send -Rv rpool/data@2020-10-27-16T23 | ssh root@xigmanas.local "zfs recv -vF tomb/np"
full send of rpool/data/vm-101-disk-1@2020-10-27-16T23 estimated size is 154G
total estimated size is 559G
Password for root@xigmanas.local:TIME SENT SNAPSHOT rpool/data@2020-10-27-16T23
19:08:50 48.7K rpool/data@2020-10-27-16T23
19:08:51 48.7K rpool/data@2020-10-27-16T23
и вот эти 48.7K постоянно.
Если шлю поток в /dev/null с источника, то всё хорошо.
Пробовал делать recv в новый dataset, с тем-же эффектом.
Что почитать/сделать, чтобы понять почему перестало копироваться?
Vladislav
А что там с дисками после "падения"?
Andrew
Нормально, диски в полке MD1000. Через hba, lsi2008.
Олег
Andrew
Vladislav
ну, так изучайте rpool/data на полке.
судя по снапшотам, данные уже есть
Vladislav
Хочется поднять распределенное S3 хранилища поверх серверов с ZFS. Кроме minio есть варианты?
Олег
Vladislav
на инфраструктуру Амазона нет бюджета :)
Олег
Владимир
Всем привет. а volblocksize нужно указывать при создании пула?
Сергей
Владимир
то есть только при создании волюма?
Владимир
я наверное не верно вопрос задал. Перефразирую, а volblocksize можно указывать при создании пула?
Владимир
я нашёл вот только такой пример
zfs create -V 64G -o compression=lz4 -o volblocksize=128k pool2/myvol_root