Art
Василий
Да, робот окупится, если таких массивов надо десяток окучивать и лент будет сотня-две. А так дешевле еще 2-3 массива в репликацию.
Egor V
Vladislav
Egor V
Так в работе все
Egor V
Бекапы, файлы, jail
Egor V
Сайты
Vladislav
и какия у них в среднем нагрузка в IOPS ?
Egor V
Не более 50%
Egor V
От макс
Vladislav
в числах
Egor V
Они либо в mirror, либо в stripe
Egor V
В числах не смотрел, сужу по gstat
Egor V
Все под FreeBSD
Vladislav
я ряд, что фряха, но iops подразумевает не % отношение, а количественное
Vladislav
вторая колонка - ops/s
Egor V
Гляну попозже
Egor V
Но нагрузка эпизодическая
Egor V
Пошёл бекап, залился, отдыхаем
Egor V
Так же и с файлами
Egor V
Нет постоянной
Egor V
24 на 7
Egor V
Через smart смотрю их в мониторинге, все число в счетчиках
Egor V
Все таки 2-3 года как то маловато) учитывая базовую гарантию в 3 года от wd
Vladislav
Vladislav
+ у WD30EFAX разных годов выпуска разный размер буфера
Egor V
Я допускаю что под постоянной 100% нагрузкой они намного быстрее выходят из строя. Но у меня пока другой экспириенс при эксплуатации
Egor
Гугл где-то писал что важен только перегрев (и его отсутствие) и даже графики приводил
Egor
Но думаю и так понятно что влажность, вибрации, перепады напряжения и пр. в условиях гугловых дц исключены
Aleksei
https://itnan.ru/post.php?c=2&p=294455
Aleksei
Про влияние звуковых волн на жесткие диски
nikolay
столкнулся со странной проблемой. есть сервер с jbod, развернул на нем zpool объемом 136 Тб, нарезаю два zvol 50 Tb и 80 Tb и выдаю их по scst iscsi на виндоус 2012r2. оба луна под виндой определяются как диски размером 50 Тб, пытался пересоздавать zvol, удалял и добавлял в конфиг scst zvol на 80 Тб с разными номерами лунов и как разные устройства, перезагружал виндоус - не помогает( вроде у win2012r2 лимит на размер луна выше чем 50 Тб..
nikolay
интересно, а какой максимальный размер блочного луна поддерживает 2012r2?
nikolay
точнее 2019
Egor V
На 2016 работают у меня 4 луна по 146 Тб. Так что явно больше поддерживает
nikolay
nikolay
тогда в чем прикол, не могу понять. это же явно не лимит scst iscsi драйвера..
Aleksei
nikolay
nikolay
о как.. scst почему то определяет размер девайса /dev/zvol/backup/lun4 равным 54975581388800 и записывает его в конфиг.. а fdisk и parted показывает размер в 87960930222080 как и должно быть..
nikolay
релоад scst не помогает.. и лун я удалял и добавлял два раза как и zvol..
nikolay
только полная выгрузка модулей vdisk_blockio и scst iscsi_scst и перезаливка конфига помогла. очень интересный кейс..
Василий
Василий
Если кому интересно. Завершился ресильвер одного 6ТБ диска из 24, организованных как два массива draid1 по 12. Заменялся диск во втором массиве, заполненный к моменту выхода примерно на эти 2,55ТБ. Нагрузка на время ресильвера была полностью снята.
Василий
Полтора суток конечно не радуют.
Василий
За это время я уже раз 5 полностью прогнал вышедший диск викторией, чтобы посмотреть в каком месте у него посыпалось.
Δαρθ
Aleksei
У нас 140 тб из 12 дисков draid2 полностью синкается около 3 суток. Упирается в скорость записи одного диска
George
Василий
Ну диск показывает в виктории от 170Мб/с в начале до 60Мб/с в конце. Не знаю почему так долго ресильвер.
George
ресильвер сам в диск упрётся в любом случае, а вот ребилд должен быть сильно быстрее
George
я про ребилд именно
Василий
У меня без spare массив. Т.е. просто вынул один диск, вставил второй, запустил ресильвер.
George
Василий
Так а если на spare точно также будет сутками еще и под нагрузкой, какой смысл?
George
https://openzfs.github.io/openzfs-docs/Basic%20Concepts/dRAID%20Howto.html
George
надо было без spare позволять только форсом создавать)))
George
By default, no spares are created.
о, я прохлопал когда они позволили такое, тогда регулярно будут на такое люди наталкиваться
Δαρθ
George
Vladimir
здОрово.
Практический пример, интересный для меня - что надежней
2 пула z-3 по 19 дисков, 3 пула z3 по 13 дисков или 4 пула Z2 по 10 дисков? В первом случае получается избыточность - 6 дисков , во втором - 9 дисков, в третьем - 8 дисков.
А вот результат
Δαρθ
да
спс. походу я наконец-то понял смысл draidа :)
George
George
Vladislav
Здравствуйте, коллеги, у меня вопрос (можете смело посылать в Гугл, если там есть ответ на него),связанный с NVMe буфером. NVMe не в виде быстрого кэша, а в виде стораджа Вопрос следующий, "знает"/"понимает" ли ZFS наличие быстрого буфера в NVMe дисках или отношение к NVMe такое как к sata ssd? Есть ли у кого-то положительный/отрицательный опыт перехода с sata ssd на nvme?
central
Здравствуйте, коллеги, у меня вопрос (можете смело посылать в Гугл, если там есть ответ на него),связанный с NVMe буфером. NVMe не в виде быстрого кэша, а в виде стораджа Вопрос следующий, "знает"/"понимает" ли ZFS наличие быстрого буфера в NVMe дисках или отношение к NVMe такое как к sata ssd? Есть ли у кого-то положительный/отрицательный опыт перехода с sata ssd на nvme?
Ему и не надо ничего понимать больше iops == лучше, но именно nvme zfs полностью утилизировать не может, уже есть патч который решает эту проблему, но он будет выпущен только в следующем мажорном релизе, где то в пределах следующее года
Vladislav
DOK ꧁꧂
В убунте zfs наштамповал кучу снапшотов. Можно это пофиксить?
central
Vladislav
Александр
Александр🇷🇺
!ban
Александр🇷🇺
А, тут нет комбота?
Nick