Ivan
Ошибка, что я не указал блок 512, признаю
И —bs использовать 4k или 512k?
Vladislav
Ладно, хер с Вами: Size=1024gb bs=1M Numjobs=1 Iodepth=16 rw=read/write
Ivan
Ладно, хер с Вами: Size=1024gb bs=1M Numjobs=1 Iodepth=16 rw=read/write
Спасибо! Вот что получилось на принимающем хранилище READ bw=2426 MiB/s (2543 MB/s) IOPs=2425 clat: avg=6.18 ms RAND READ bw=57.3 MiB/s (60.0 MB/s) IOPs=57 clat: avg=261.58 ms WRITE bw=1477 MiB/s (1549 MB/s) IOPs=1477 clat: avg=10.16 ms RAND WRITE bw=1459 MiB/s (1529 MB/s) IOPs=1458 clat: avg=10.29 ms
Vladislav
Добавьте Randrepeat=false
Vladislav
Randwrite делать не надо
Vladislav
Как и randread
Vladislav
Но эффективно, Вы упираетесь в чтение судя по тесту
Ivan
Странно, пытаюсь добавить параметр —randrepeat=false, а она пишет что ошибка парсинга параметра fio --filename=./test.img --size=50G --direct=1 --rw=read --randrepeat=false --bs=1M --ioengine=libaio --iodepth=16 --runtime=120 --numjobs=1 --time_based --group_reporting --name=test
Ivan
Может я куда не туда вписал этот параметр, хотя я попробовал по разному, и пишет что ошибка парсинга randrepeat
Vladislav
....
Vladislav
Посмотрите на --
Ivan
Хм, смотрю и вроде все ок. Попробовал переписать, может где ошибся. Та же ошибка
Vladislav
....
Vladislav
Я размер какой сказал поставить?
Ivan
1024G
Vladislav
И timebased уберите
Ivan
—size сделать 1024G, это же терабайт?
Ivan
fio --filename=./test.img --size=1024gb --direct=1 --rw=read --randrepeat=false --bs=1M --ioengine=libaio --iodepth=16 --runtime=120 --numjobs=1 --group_reporting --name=iops-test-job
Ivan
Вот команда что я запускаю, ошибка та же. Ошибка парсинга randrepeat
Ivan
И timebased уберите
Убрал. Поставил Size=1024gb, как вы сказали. Та же ошибка парсинга —randrepeat=false Если убрать этот параметр, то команда срабатывает, но она тупо ооочень долго создает файл для чтения, прежде начинает что либо считать. Зачем такой огромный размер файла? 50Г что у меня разве не достаточно для получения объективных результатов?
Vladislav
АААААА
Vladislav
ИДИТЕ ЧИТАЙТЕ ЧТО ТАКОЕ ZFS.
Ivan
Вы не поверите, я уже очень много и давно читаю. Но возникают вопросы, поэтому и обращаюсь с вопросами, не часто правда.
Vladislav
Что такое arc?
Ivan
Если бы вопросов не было, меня бы и в чате не было бы тут ))
Ivan
Я так понимаю, это система кэшировани
Ivan
У меня оперативки 32 ГБ, а диск кэша L2arc на 256 гигов.
Ivan
вот это очень зря
Знаю, пока не успел увеличить количество памяти.
Vladislav
У меня оперативки 32 ГБ, а диск кэша L2arc на 256 гигов.
И чем же сейчас забиты эти 32ГБ при тестах на линейное чтение?
Ivan
И чем же сейчас забиты эти 32ГБ при тестах на линейное чтение?
Ну при чтении как я понимаю, ZFS кэширует все что может, поэтому я и использовал файл 50Гб чтобы выйти за рамки оперативки.
Ivan
Вот что htop показывает, когда я делаю тест на линейное чтение
Ivan
без —randrepeat=false, потому что этот параметр не срабатывает, выдается ошибка парсинга
Бу...
Чтение манов вслух с выражением - от $100 в час...
Чтение манов вслух с матерными выражениями - от $200 в час...
Ivan
Ясно, судя по всему, в этом чате больше флуда чем помощи. Всем спасибо
Sergio
Перевод манов на язык маглов - бесценно
Vladislav
Ясно, судя по всему, в этом чате больше флуда чем помощи. Всем спасибо
Вам готовы *помочь*, но мы не в дет саду А Вы утверждаете что умеете читать
Ivan
Вам готовы *помочь*, но мы не в дет саду А Вы утверждаете что умеете читать
Я понимаю, но я как-то не вижу где я детские вопросы задаю
Vladislav
Vladislav
Серьёзно?
Ivan
Абсолютно серьезно.
Ivan
Я уже кучу роликов и статей почитал в инете и по фио тоже
Ivan
Просто если бы статьи в инете писались бы исключительно компетентными людьми и умеющими понятно объяснять, то наверно вопросов меньше было бы
Vladislav
Вы. Не. Читали. РОВНЫМ. Счётом. Ничего.
Vladislav
Скопировать первый вывод в ссылке из гугла
Vladislav
И сказать что Вы читали
Vladislav
это просто смешно.
Ivan
Спасибо, Шерлок ))
Vladislav
На этом я точно не готов больше отвечать на Ваши вопросы.
Ivan
Ладно, я уже сказал. Спасибо! Разберусь сам, мне не впервой. Тем более что с такой темой я уже приходил некоторое время назад, толку было плюс минус столько же ))
Vladislav
Рекомендую использовать ext4 и LVM вам
Ivan
Рекомендую использовать ext4 и LVM вам
Использовал mdadm+ext4 очень долго и продуктивно и что самое интересное это было быстрее, чем щас с ZFS. Но ZFS имеет много всего хорошего, вот и пытаюсь разбираться.
Vladislav
Ок.
Ivan
Да и не верится мне как-то что ZFS будет в разы медленнее, что даже при дефолтных настройках, плюс минус.
Ivan
Ну конечно я полагаю, что да может быть где-то он уступать в скорости, но за счет оперативки дополнительной и других его плюшек, можно выжать очень классные скорости и другие вещи. Поэтому и начал копать его уже давно.\
Ivan
А самое главное ZFS удобнее в использовании. Но блин, вот со скоростью, пока как-то не то получается. Пытаюсь понять в чем затык
Sergio
по крайней мере смотреть арк ненастроенным хтопом - не комильфо
Ivan
c randrepeat разобрался, кто ж мог знать, что она не понимает true и false ))
Ivan
Хотя даже в доках пишут true ))
Кот Матроскин
Вот смотрите, немного теории. Есть RAIDZ1 из 3-ёх дисков WD 4 Tb, тут безоговорочное сохранение данных при потере одного диска, или может случится так, что ZFS потеряет какие то данные? Настраивается ли как то у ZFS логирование повреждённых данных при обращении без их удаления?
Кот Матроскин
RAIDZ гарантирует сохранность данных вплоть до потери одного диска
Как мы выяснили выше уже, с бэдами можно потерять данные и без отказа целого диска)
Станислав
Как мы выяснили выше уже, с бэдами можно потерять данные и без отказа целого диска)
Слышал я как-то историю (раз 5 уже), как дата-центр сгорел. Чтобы не терять данные, нужно хранить бэкап на удалённом севере. Кстати, делая раз или несколько раз в сутки снимок и отправляя его куда-нибудь (да хоть в /dev/null), тем самым инициируете проверку только новых данных. Это та самая проверка, которую вы спрашивали
Станислав
Но лучше, чтобы это был не /dev/null :)
Кот Матроскин
Миграция серверов в облако часто бывает, OVH пока что чемпион вроде в этом....
Станислав
Бекапы то понятно... Но есть массивы данных где бекапы не сделаешь, например массив на 100 Tb очень напряжно бекапить)
В смысле не сделаешь? Необходимость делать бекап определяется не размером массива, а важностью данных.
Кот Матроскин
В смысле не сделаешь? Необходимость делать бекап определяется не размером массива, а важностью данных.
Еще размером, иногда что бы забекапить массив, нужен другой массив, который жирнее первого)
Станислав
Еще размером, иногда что бы забекапить массив, нужен другой массив, который жирнее первого)
Не вижу в этом ни капли разума. Данные либо нужны, либо нет. Сразу вспоминается: "Админы делятся на 2 типа: 1) Которые ещё не делают бекапы 2) которые уже делают"
Кот Матроскин
Именно по этому хочется от ZFS потери данных только в ИСКЛЮЧИТЕЛЬНЫХ случаях, а не как в mdadm или ntfs.
Кот Матроскин
Просто когда данные золотые это одно, а когда данные жирные и не золотые, то при таких объемах очень дорого бекапить)
Кот Матроскин
А 500😭😭😭😭
А 1500? О чем и речь, что это не 1 Tb забекапить на пару дисков.
Ivan
Просто когда данные золотые это одно, а когда данные жирные и не золотые, то при таких объемах очень дорого бекапить)
бэкапить важное, неважное не бэкапить. более того, бэкапить можно довольно компактно.