Dmitriy
Нет
насколько я понял - при использовании multipath можно и нужно использовать планировщик i/o с возможностью разделения операций i/o
Shaker
где почитать можно?
https://clusterlabs.org/pacemaker/doc/2.1/Clusters_from_Scratch/epub/fencing.html
Shaker
Вариант zfs это "Shared storage that can be cut off for a target host by another host (for example, an external storage device that supports SCSI-3 persistent reservations)"
Shaker
Но ты можешь и другие варианты.
Shaker
И учти, там дока не для "адаптированых" версий. Для твоего дистрибутива может отличаться что-то.
Dmitriy
принял, благодарю )
Shaker
Georg🎞️🎥
Andrew
Доброго дня, коллеги!
Подскажите порядок действий или где почитать, запутался в командах - оффлайн, дитач, риплейс 🤦♂️
Есть raidz2+1 на frebsd, всего 12 хардов по 500ГБ (gpt/disk0...11), пока работает, но надо бы заменить 1 (исчерпались перемещённые сектора до 2% - "SMART threshold exceeded: port=4"), а лучше 2 или даже 3 (в т.ч. spare).
Наверно начать с замены spare, потом подставить новый spare вместо 1го, заменить 1й на новый и назначить его spare, потом аналогично со 2м.
Dmitriy
При падении любого, все доступны через активный
Georg🎞️🎥
Shaker
Вы тут путаете немного разные технологии
Shaker
Там есть резервирование и прирост в полосе ( на иопсы не влияет)
Georg🎞️🎥
И диски лучше бы sas как я понимаю 🤔
Shaker
Если у вас полка с двумя путями и двумя контроллерами, то там можно задействовать как отказоустойчивость так и увеличение полосы ( команды sas раскидываются round-robin, это настраивается)
Shaker
Как я знаю, это касается только sas
Shaker
Не редки случаи, когда у вас забивается канал к полке, и начинает все тупить. Но это либо старое ?%но либо сверх нагрузки.
Georg🎞️🎥
У меня само собой сас ))) хехе
Но по iops мой hba перекрывает в разы все диски
Georg🎞️🎥
Shaker
Очередь растет
Fedor
Shaker
Там ведь полоса ограничена 24,12 gbit или 6 gbit не знаю, что у вас там.
Georg🎞️🎥
Dmitriy
sas протокол дуплексный и 12 гбит - это 6 на чтение и 6 на запись
Dmitriy
на каждую линию
Fedor
в зависимости от архитектуры сети стораджа, возможны ситуации, когда поток ио - а он строго фифо - встает на каком-то устройстве и формирует за собой очередь
Dmitriy
порт - 4 линии
Shaker
Vladislav
Dmitriy
т.е. для sas3 выше 12гбит на запись уже не прыгнешь в один порт
Georg🎞️🎥
Dmitriy
если дисков 180 - они могут в линейной записе 180*160МБ - 28ГБайт - т.е. 230гбит - что на порядок с лишним больше чем может пропустить порт
Dmitriy
сас3
Georg🎞️🎥
Sas2 у меня и дисков 60 ))
Shaker
Вот мы часто упирались в этот предел раньше
Shaker
Но у нас 100+ дисков на сервер
Fedor
Georg🎞️🎥
Но☝🏻 на каждое подключение - 15 дисков , то есть 6х4 линии на каждую полку
Shaker
Два линка обычно хватает, если там балансировка
Georg🎞️🎥
Сейчас так : hba 16e - 4 физических подключения. Я воткнул 4 полки и полагаю, что еще один hba вряд ли мне что ускорит, ошибаюсь ?
Shaker
Dmitriy
Dmitriy
тут еще нужно смотреть что по шине PCIe
Dmitriy
т.к. там есть х8 и х16 контроллеры 16е
Georg🎞️🎥
Dmitriy
если полки такие как dell 3060e - на 60 дисков - есть смысл их сразу цеплять двумя портами
Georg🎞️🎥
Shaker
Это-ж старое совсем, оно может от старости умереть в любом месте в любой момент.
Dmitriy
собственно чатик не совсем был про железо
Shaker
Если это еще и старый сервер-полка, так еще и пожароопасно
Georg🎞️🎥
Dmitriy
я выше задал вопрос про то как готовить сетап zfs
Shaker
Dmitriy
на таком железе
Dmitriy
интересно как правильно готовить модуль zfs для mq
Dmitriy
а там эти штуки есть
Dmitriy
как включить mq в ядре для планировщика io я знаю - но для zfs.conf есть свои параметры - вот кто подскажет что и как?
Georg🎞️🎥
Alexander
Касательно multipath: у нас 2 сервера и 2 60х дисковые полки в HA-кластере (lustre) - т.е. в норм режиме 60дисков на сервер (6х raidz2 pools ~= 5 GB/s max from ZFS). LSI SAS x8 = 8GB/s max, т.е. для норм работы можно и по одной карте, но для ситуации, когда может получиться 120 дисков на 1м сервере и сделан multipath. Причем я делал вручную (но для этого надо знать, какие диски в полке на каком SAS экспандере).
В /etc/multipath.conf примерно так:
multipath {
wwid 3500000000000
alias jbod01-1-d00
prio weightedpath
prio_args "wwn *:*:0x5000000000000001:* 5 *:*:0x5000000000000002:* 1"
}
Alexander
Что касается HA (pacemaker, corosync) - на тестах все неплохо отрабатывало, в реальной жизни zpool'ы могут иногда и не переехать((
Dmitriy
Dmitriy
хочу уточнить как сделан vdev_id.conf для multipath
что в zfs.conf по этой теме донастроили
что в default grub в параметры boot добавляли.
и под какой версией ядра все собрано
Alexander
multipath сам создает устройства (см. alias выше), так что vdev_id.conf не нужен. По этим алиасам и собирается zpool (zpool create <zpool_param> <zpool_name> raidz2 jbod01-1-d00 jbod01-1-d01 ...) В grub тоже ничего не надо. А настройка параметров zfs - это отдельная история, впрочем к multipath не имеющая отношения.. Версия ядер думаю тоже значения не имеет..
Combot
Bruce Olson has been banned! Reason: CAS ban.
Nikolay
#Вопрос Уменьшить фрагментацию
1) send - recv даже в пределах одного пула большого датасета, должен решить проблему фрагментации ? Или как лучше лечить фрагментацию ? Фрагмнтация под 40% у вдевов
2) на спешиале (ssd) 50%, на этом пуле трим не запускался. Трим должен помочь ?
central
Nikolay
Δαρθ
Δαρθ
Nikolay
#Вопрос Спрошу по другому: фрагментация данных в пуле может быть причиной низкой скорости чтения ? (логичеки полагаю что нет) при занятости пула 30%. Страйп из 3 зеркал, 4к сектор. Больше 11Мб/с на чтение не выдаёт. Нагрузка на диски 5%, пул в целом не загружен. Рядом другой сервак с такими же дисками, конфигурацией, даёт 110 Мб/с при чтении. Куда ещё можно посмотреть ? Спасибо.
central
наврятли можно получиь разницу в десять раз на идентичных сетапах, что то отличается
Evgenii
Nikolay
поменять сетевой кабель. 11Мб/с = 100 Mбит/c
speedtest показывает нормальную скорость
Testing download speed................................................................................
Download: 420.51 Mbit/s
Testing upload speed......................................................................................................
Upload: 249.47 Mbit/s