на vdevs то распространяется это понятно, но вы не можете читать/писать только на один vdev в пуле, гарантировать 100% равномерную нагрузку по vdevs тоже нельзя = результаты теста однозначно интерпретировать нельзя
такое ощущение что вы не хотите меня слышать или делайте вид что не понимаете о чем идет речь. Еще раз, не важно, как работает vdev в пуле в котором он один или их восемь таких же как он, если нагрузка на любого из них в пуле в какой-то момент времени будет равномерная или неравномерная это ничего не решат с точки зрения определения влияния этих параметров. для чего вы пытаетесь подмешать сюда толи общую производительность пула, толи чего... Когда на vdev который в пуле из многих ему подобных или нет, выстроиться очередь в 100 определенная параметром например zfs_vdev_sync_write_max_active, а он при этом HDD то производительность его существенно просядет, а если он nvme то легко справиться, если задать очередь в 10-ть то и HDD отработает относительно неплохо, а для nvme это уже будет неэффективно. Для чего вы мешаете сюда пулы, если речь идет про работу с конкретным vdev-ом неважно в одиночку он работает или нет, все равно очередь на него не будет больше чем она будет задана в параметрах модуля.