nikolay
nikolay
Василий
nikolay
nikolay
Разница на 60 дисках при паттерне 4к, 50/50% random read/write , разница в 7 раз по iops в пользу zfs. Вот такие пироги..
Василий
а как вы дисковые полки минуя родной контроллер в зфс раздали?
Василий
nikolay
Sync я даже не пробовал отключать
Василий
сколько IOPS было?
nikolay
nikolay
Василий
напрмер, у MSA2040 заявлена пропускная способность 80к иопс по контроллеру
Василий
14к vs 2k
что ж та такой странный контроллер у вас был
Василий
"30 любой аппаратный рейд" - ентри левел мса 80к, значит не любой рейд
nikolay
Василий
nikolay
Я пишу про карточку, модель смотрите выше, я указал
Василий
а зфс через эту же карточку без рейда работало?
Василий
зы: __"любой аппаратный рейд"__
Василий
"HPE Smart Array SR ControllersHPE’s new line of enterprise-class RAID controllers for Gen10 servers help maximize performance, data availability, and storage capacity. They deliver up to 1.6 million IOPS"
nikolay
зы: __"любой аппаратный рейд"__
Я боюсь что нарушу вашу стройную картину мира - но в контроллерах msa нет как таковых аппаратных raid контроллеров))) как впрочем у большинства классических схд
nikolay
И мса ни на одном количестве hdd не выдаст 80к iops при хоть сколько нибудь вменяемом времени отклика. Не надо верить маркетинговым даташитам, даже если там что то подобное написано
nikolay
Василий
nikolay
В смысле? ))
Василий
в смысле вы перешили лси в ит моде?
nikolay
У меня есть конфигурация из 180 дисков))
Василий
Василий
попахивает магией и кривой настройкой рейда. ну или все таки отключенным синком
nikolay
Никому ничего не навязываю и не собираюсь доказывать. Но мне не нравится уровень негатива исходящий от вас в профильном чате.
nikolay
Поэтому посчитал нужным привести свой опыт
nikolay
Пусть пишут, вы тоже написали. Отлично, дальше тему можно не развивать. Каждый остался при своём мнении
Василий
Василий
итого в стрипе будет 12600
nikolay
Ваш опыт кстати был полезен. Я например не знал что oracle zfs умеет удалять из пула любой vdev. Лично мне это было очень полезно
Василий
nikolay
Зачем вам мои пруфы? Это же не ссылки на чей то блог или реддит?)
nikolay
Конфигурацию я вам описал
Василий
ну нет так нет)
nikolay
Я просто не понимаю какие мои пруфы вас убедят ..
Василий
ну тест иопс и настройки контроллера. я понимаю, что ради пруфов, вы сейчас не будете пересобирать рейд, но вдруг у вас остались картинки с тех времен когда вы сравнивали
Василий
я "почти" верю в 14к (при теоретически возможных 12к, а учитывая что зфс еще и метаданные пишет, то часть иопсов еще на них уходит), но сильно не верю в 2к на довольно приличном контроллере который у вас
nikolay
Скрины я не делал, зачем? Настроек у контроллера минималка ное количество, там сложно накосячить
Василий
опять же - 12к иопс на 60 дисках это при чистом стрипе. т.е. если у вас все же прод, и хотя бы рейд10, то там не больше 6к должно быть.
nikolay
Вы удивитесь, но я сравнивал raid60 из 4 групп и zraid2 на пуле из 4-х вдев)
Василий
nikolay
Параллельная нагрузка, не надо считать в лоб)
nikolay
Я видел как на один nl_sas диск приходилось 500 iops))
Василий
Василий
и можно модель, а то что то подозрение, что там все что можно кеши в нем включены
nikolay
Я предлагаю завершить наше увлекательное обсуждение. Мои коллеги вели себя аналогично пока не увидели тесты в живую. Вам я к сожалению продемонстрировать не смогу так как этого стенда давно нет
Василий
nikolay
nikolay
Как было в тесте - не вспомню
Василий
Как было в тесте - не вспомню
у вас нереально хорошие показатели для зфс. но приятно читать, что есть места, где зфс работает очень быстро
Combot
Aesh has been banned! Reason: CAS ban.
Combot
Aesh has been banned! Reason: CAS ban.
Eugene
Господа специалисты, а подскажите, как лучше шифрование организовать на raidz из 4-х дисков?
-каждый диск зашифровать, шифрованные тома объединить в raidz (тогда при сбое надо будет каждый диск сначала открыть, потом возвращать массив) ;
- на 4-х дисках сделать raidz, поверх сделать шифрованную ФС, тогда расшифровать нужно будет ФС на уже смонтированном массиве.
bes
Да
bes
Конечно слой шифрования на zfs, но можете сделать как вам удобнее
Ivan
логично использовать нативное шифрование zfs на пул или определенный датасет
Василий
root@san:/tmp# zpool create -o encryption=on zzz /tmp/d1
property 'encryption' is not a valid pool property
root@san:/tmp# zfs set encryption=on zzz
cannot set property for 'zzz': 'encryption' is readonly
Василий
абыдно :(
bes
почему это не стирается через zpool clear?
Ivan
Ivan
вот кстати чем плох zfs. если б он не указывал что есть потерянные данные, то и не заметил бы. а теперь неспокойно как-то 😃
bes
суть в том что файл не читался
bes
вообще не хороший опыт пока что получается: pool создан 20 часов назад, запись на 60% утилизации дисков 60%/40% read/write и уже приехали
central
bes
в этом subvol