Ivan
Vladislav
Ладно, хер с Вами:
Size=1024gb
bs=1M
Numjobs=1
Iodepth=16
rw=read/write
Ivan
Ладно, хер с Вами:
Size=1024gb
bs=1M
Numjobs=1
Iodepth=16
rw=read/write
Спасибо!
Вот что получилось на принимающем хранилище
READ bw=2426 MiB/s (2543 MB/s) IOPs=2425 clat: avg=6.18 ms
RAND READ bw=57.3 MiB/s (60.0 MB/s) IOPs=57 clat: avg=261.58 ms
WRITE bw=1477 MiB/s (1549 MB/s) IOPs=1477 clat: avg=10.16 ms
RAND WRITE bw=1459 MiB/s (1529 MB/s) IOPs=1458 clat: avg=10.29 ms
Vladislav
Добавьте
Randrepeat=false
Vladislav
Randwrite делать не надо
Vladislav
Как и randread
Vladislav
Но эффективно, Вы упираетесь в чтение судя по тесту
Ivan
Странно, пытаюсь добавить параметр —randrepeat=false, а она пишет что ошибка парсинга параметра
fio --filename=./test.img --size=50G --direct=1 --rw=read --randrepeat=false --bs=1M --ioengine=libaio --iodepth=16 --runtime=120 --numjobs=1 --time_based --group_reporting --name=test
Ivan
Может я куда не туда вписал этот параметр, хотя я попробовал по разному, и пишет что ошибка парсинга randrepeat
Vladislav
....
Vladislav
Посмотрите на --
Ivan
Хм, смотрю и вроде все ок. Попробовал переписать, может где ошибся. Та же ошибка
Vladislav
....
Vladislav
Я размер какой сказал поставить?
Ivan
1024G
Vladislav
Vladislav
И timebased уберите
Ivan
—size сделать 1024G, это же терабайт?
Ivan
fio --filename=./test.img --size=1024gb --direct=1 --rw=read --randrepeat=false --bs=1M --ioengine=libaio --iodepth=16 --runtime=120 --numjobs=1 --group_reporting --name=iops-test-job
Ivan
Вот команда что я запускаю, ошибка та же. Ошибка парсинга randrepeat
Ivan
И timebased уберите
Убрал. Поставил Size=1024gb, как вы сказали. Та же ошибка парсинга —randrepeat=false
Если убрать этот параметр, то команда срабатывает, но она тупо ооочень долго создает файл для чтения, прежде начинает что либо считать.
Зачем такой огромный размер файла? 50Г что у меня разве не достаточно для получения объективных результатов?
Vladislav
Vladislav
АААААА
Vladislav
ИДИТЕ ЧИТАЙТЕ ЧТО ТАКОЕ ZFS.
Ivan
Вы не поверите, я уже очень много и давно читаю. Но возникают вопросы, поэтому и обращаюсь с вопросами, не часто правда.
Vladislav
Что такое arc?
Ivan
Если бы вопросов не было, меня бы и в чате не было бы тут ))
Ivan
Я так понимаю, это система кэшировани
Ivan
У меня оперативки 32 ГБ, а диск кэша L2arc на 256 гигов.
Ivan
Ivan
Вот что htop показывает, когда я делаю тест на линейное чтение
Ivan
без —randrepeat=false, потому что этот параметр не срабатывает, выдается ошибка парсинга
Artem
Ivan
Ясно, судя по всему, в этом чате больше флуда чем помощи. Всем спасибо
Sergio
Перевод манов на язык маглов - бесценно
Ivan
Vladislav
Vladislav
Серьёзно?
Ivan
Ivan
Я уже кучу роликов и статей почитал в инете и по фио тоже
Vladislav
Ivan
Просто если бы статьи в инете писались бы исключительно компетентными людьми и умеющими понятно объяснять, то наверно вопросов меньше было бы
Vladislav
Вы. Не. Читали. РОВНЫМ. Счётом. Ничего.
Vladislav
Скопировать первый вывод в ссылке из гугла
Vladislav
И сказать что Вы читали
Vladislav
это просто смешно.
Ivan
Спасибо, Шерлок ))
Vladislav
На этом я точно не готов больше отвечать на Ваши вопросы.
Ivan
Ладно, я уже сказал. Спасибо! Разберусь сам, мне не впервой. Тем более что с такой темой я уже приходил некоторое время назад, толку было плюс минус столько же ))
Vladislav
Рекомендую использовать ext4 и LVM вам
Ivan
Ivan
Рекомендую использовать ext4 и LVM вам
Использовал mdadm+ext4 очень долго и продуктивно и что самое интересное это было быстрее, чем щас с ZFS. Но ZFS имеет много всего хорошего, вот и пытаюсь разбираться.
Vladislav
Ок.
Ivan
Да и не верится мне как-то что ZFS будет в разы медленнее, что даже при дефолтных настройках, плюс минус.
Ivan
Ну конечно я полагаю, что да может быть где-то он уступать в скорости, но за счет оперативки дополнительной и других его плюшек, можно выжать очень классные скорости и другие вещи. Поэтому и начал копать его уже давно.\
Ivan
А самое главное ZFS удобнее в использовании. Но блин, вот со скоростью, пока как-то не то получается. Пытаюсь понять в чем затык
Sergio
по крайней мере смотреть арк ненастроенным хтопом - не комильфо
Ivan
c randrepeat разобрался, кто ж мог знать, что она не понимает true и false ))
Ivan
Хотя даже в доках пишут true ))
Кот Матроскин
Вот смотрите, немного теории.
Есть RAIDZ1 из 3-ёх дисков WD 4 Tb, тут безоговорочное сохранение данных при потере одного диска, или может случится так, что ZFS потеряет какие то данные?
Настраивается ли как то у ZFS логирование повреждённых данных при обращении без их удаления?
Andrey
Станислав
Как мы выяснили выше уже, с бэдами можно потерять данные и без отказа целого диска)
Слышал я как-то историю (раз 5 уже), как дата-центр сгорел. Чтобы не терять данные, нужно хранить бэкап на удалённом севере. Кстати, делая раз или несколько раз в сутки снимок и отправляя его куда-нибудь (да хоть в /dev/null), тем самым инициируете проверку только новых данных. Это та самая проверка, которую вы спрашивали
Станислав
Но лучше, чтобы это был не /dev/null :)
Кот Матроскин
Кот Матроскин
Миграция серверов в облако часто бывает, OVH пока что чемпион вроде в этом....
Станислав
Кот Матроскин
Кот Матроскин
Кот Матроскин
Именно по этому хочется от ZFS потери данных только в ИСКЛЮЧИТЕЛЬНЫХ случаях, а не как в mdadm или ntfs.
Georg🎞️🎥
Кот Матроскин
Просто когда данные золотые это одно, а когда данные жирные и не золотые, то при таких объемах очень дорого бекапить)
Кот Матроскин
А 500😭😭😭😭
А 1500?
О чем и речь, что это не 1 Tb забекапить на пару дисков.
Ivan