Fedor
Тыжпрограммист
Alexander
Так я по скриптоте, а не по бутлоадерам.
Fedor
почитай код - может там реализован блеклист
Fedor
Ivan
Fedor
Для твоей задачи это может быть и не нужно
nikolay
Всем привет, возник вопрос по расширению пула
nikolay
Например у меня был пул из одного vdev на 80 тб, я добавляю ещё один vdev и расширяю пул до 160 тб, в два раза
nikolay
Как при этом изменится потребление памяти со стороны zfs?
Fedor
Никак
Fedor
Цифры для примера приведены?
Andrew
Если не было dedup
nikolay
Fedor
Не видел устройств такого размера..
nikolay
Никак
Ок, после перезагрузки у меня также ничего не поменяется?
Fedor
Не должно.
В любом случае, надо обкатывать на тесте, хоть операция и простая.
А что это за такие вдевы на 80ТБ?
Fedor
И стоит иметь ввиду, что данные сами не ребалансятся.
nikolay
Fedor
Fedor
По поводу количества дисков в райдз вроде бы были какие-то циферки рекомендуемые. Не вспомню только, это к райдз относится либо к количеству вдевов.
Рекомендую посмотреть поискать.
Fedor
Циферки из серии «не более чем»
nikolay
Циферки из серии «не более чем»
Точно такого не видел. Кол-во дисков в vdev определяет оверхед по объёму, всем известная табличка это показывает, в случае с raidz оверхед может быть немалым..
Fedor
Fedor
В общем с иопсами сложно будет.
Fedor
Юзкейса я не знаю - вдруг это бекап хранилка или цдн, тогда неважно :)
Fedor
Вот и статейка из скриншота
Fedor
https://jrs-s.net/2015/02/06/zfs-you-should-use-mirror-vdevs-not-raidz/
Ivan
Решил снапшоты поудалять лишние, которые остались от репликации зашифрованных датасетов. Два снапшота никак не хотят удаляться, ни на приемнике, ни на источнике. Уже и перезагрузку пробовал.
Ivan
Что можно с этим сделать ?
nikolay
@gmelikov Георгий, может вы подскажете про ограничение кол-ва дисков на vdev и производительность с этим связанную, а конкретно iops?
George
@gmelikov Георгий, может вы подскажете про ограничение кол-ва дисков на vdev и производительность с этим связанную, а конкретно iops?
ограничение верхнее технически конечно есть, 240 чтоли :)
про иопсы не совсем понимаю что хочется узнать, есть базовые вещи про конкретные типы vdevs, иопсы зависят от характера нагрузки, про особенности raidz и выше комментили уже.
По моим личным тестам смысла больше 30 дисков на одном raidz очень мало в плане общего решения, о чём везде, опять же, говорят. Но если нужна поточка, эффективность утилизации сырого пространства и перформансом готовы рисковать, а также потеря пула не очень страшна, то до верхнего предела в около 240 дисков на vdev далеко)
nikolay
В общем с иопсами сложно будет.
я вот про это и про статью из блога. мне кажется что информация как минимум устарела. не видел разницы по iops в тестах на пуле из одного vdev например из 6 дисков в raidz2 или из 11 дисков - цифры в рамках 3-5% погрешности.
Fedor
Может быть устарела. Я не использую райдзы вообще, подтвердить или опровергнуть не смогу
nikolay
ограничение верхнее технически конечно есть, 240 чтоли :)
про иопсы не совсем понимаю что хочется узнать, есть базовые вещи про конкретные типы vdevs, иопсы зависят от характера нагрузки, про особенности raidz и выше комментили уже.
По моим личным тестам смысла больше 30 дисков на одном raidz очень мало в плане общего решения, о чём везде, опять же, говорят. Но если нужна поточка, эффективность утилизации сырого пространства и перформансом готовы рисковать, а также потеря пула не очень страшна, то до верхнего предела в около 240 дисков на vdev далеко)
а так да, согласен что iops зависят в первую очередь от шаблона нагрузки и конфигурации пула - slog, special vdev в определенных случаях очень помогают
nikolay
George
George
Fedor
Видимо, в статье шла речь о максимальном распараллеливании нагрузки, чтобы побольше иопс на гигабайт отдавалось
George
George
George
т.е. для raidz количество дисков не влияет на iops считай
George
*на запись
Ivan
Fedor
George
А между вдев нагрузка параллелится же?
да, если потоков больше одного. Запись одного блока всегда приедет на один vdev, а вот запись 2 блоков параллельно может использовать уже 2 vdevs
Fedor
Fedor
Тогда
George
вообще это ж и есть фишка zfs, он скейлится как раз на количество параллельных потоков, и делает тут другие решения
nikolay
Может это имелось ввиду?
в статье тема iops раскрыта в сравнении raidz и raid10 - автор прямо рекомендует использовать raid10 для большей производительности и не гридится по поводу потери места))) так что я думаю что в моих конфигурациях иногда можно делать raidz2 даже на 15 дисках, имея при этом, например, 5 vdev в пуле. производительность с учетом использования slog и special vdev приемлемая под размещение баз постгреса..
nikolay
Salter в блоге постоянно пишет - it depends. так что предлагаю не создавать очередной миф про zfs, а то народ в чате в основном неокрепший духовно, может и поверить)
Fedor
👍👍
Я вот все как-нибудь хотел бы погонять высоконагруженную Постгрес на зфс, посмотреть, потюнить
Василий
nikolay
Василий
Dell вообще считает 5й и аналогии не прод
Василий
Василий
Василий
Но 80 тб на 5 ке я бы точно не делал
nikolay
Они ее как домашнюю схд двигают наверное
почитайте про dell powerstor, я сильно сомневаюсь что кто-то будет покупать себе домой схд по цене сравнимой с ценой машины среднего уровня в рф.. причем это стартовая цена
nikolay
хотя вроде они добавили уже в новой версии fw поддержку raid6..
nikolay
не суть - мой пример про то, что dell некоторое время продавал по своим каналам схд, которая поддерживала только одну конфигурацию - raid5.. а вы говорите 80 тБ на raid5 не делали бы))
Fedor
ну может для бекап солюшон было
nikolay
почитайте спеку - для всего оно было и есть - и для виртуализации и для баз и для контейнеров..
nikolay
полный фарш
nikolay
Vladimir
Доброго вечера коллеги, я редко работаю с zfs , но года 2,5 назад собрал на freenas массив raidz3 , на нем работают, все хорошо, сегодня я с него черех smb на винде удалил файл в 40ТБ, но как то объем свободного пространства не увеличился, что может быть? корзины у smb - нет
Vladimir
вот он собтсвенно , массив
Ivan
Vladimir
Vladimir