- vdev removal работает хитро и с оверхедом (он пишет таблицу сопоставлений по блокам, которые были на старом диске iirc), учитывайте это
- новые блоки, соответствующие условиям записи на special, поедут на него
- special vdev из raidz НИ В КОЕМ СЛУЧАЕ) да и мб он и не позволит сейчас такое собрать, не помню. Просто весь смысл iops побольше получить пропадает, raidz не про иопсы ни разу
Я знаю все проблемы raidz, я работал с ним и отказался от использования raidz для механических дисков. Но вот последнее утверждение, я думаю, имеет смысл проверить. Может быть это будет работать на удивление хорошо. Я так говорю, по тому, что бывают случай иногда нам нужно или пойти на компромисс, или, условно потратить пол миллиона рублей. Понятно, что лучше делать лучше, и не делать хуже. Но в данном случае, быть может, производительности vdev хватить и реальное снижение быстродействия не повлияет на функции хранилища. Почему я так считаю? raid-z нормально работает с ssd. Оверхед я не мерял. Но со cpecial ситуация другая. Если его производительности хватает, то не важно сколько iops ещё есть в запасе, от увеличения этого запаса, хранилище не ускорится. А медленное место там raidz1 и 5 х 8ТБ дисков. При создание 4-х special vdev, zfs мне сообщила, что special vdev должен быть _того же_ уровня что и основные, т.е. в моем случае raid-z1. С другой стороны, на special падает такая нагрузка, которая для SSD просто детская.
Посмотрите на средние iops
root@plt-backup:~# zpool iostat -v hdd-big2
capacity operations bandwidth
pool alloc free read write read write
--------- ----- ----- ----- ----- ----- -----
hdd-big2 33,2T 3,33T 12 436 83,1K 4,10M
raidz1 32,9T 3,30T 3 252 39,5K 3,04M
sdl - - 0 54 7,87K 622K
sdh - - 0 49 7,95K 623K
sdj - - 0 49 7,90K 623K
sdn - - 0 49 7,89K 623K
sdm - - 0 49 7,90K 623K
special - - - - - -
special1 86,1G 6,44G 3 57 17,6K 344K
special2 81,2G 11,3G 2 57 12,8K 348K
special3 58,5G 5,04G 1 31 6,31K 175K
special4 58,3G 5,23G 1 38 6,86K 216K
cache - - - - - -
cache 6,33G 19,7G 3 0 23,9K 50,6K
--------- ----- ----- ----- ----- ----- -----
root@plt-backup:~# uptime
15:58:26 up 19 days, 10:06, 1 user, load average: 0,02, 1,46, 3,05