Алексей
Василий
3. Ну судя по описанию, я могу ошибаться, вы нарезали на ssd и hdd разделы, слипили зеркало ssd+hdd и залили туда special, а оставшееся место на hdd использовали под основной раздел.
Vladislav
стенд описан в первой заметке
А ссылка на первую заметку где?
George
стенд описан в первой заметке
к слову - ссылок там нет на первую заметку
Алексей
к слову - ссылок там нет на первую заметку
ну к слову, да. поправлю. спасибо
Василий
хдд нарезал, ссд отдал полностью, хдд только для зфс
Я правильно понимаю, что мета на зеркале из ssd и hdd? Это ключевой вопрос.
Алексей
Я правильно понимаю, что мета на зеркале из ssd и hdd? Это ключевой вопрос.
если мы говорим про бртфс - да, если про зфс - то там порознь
Василий
ну к слову, да. поправлю. спасибо
И еще, просьба, укажите размерность. Что это мегабайты в секунду, оипсы, киловаты в час? Так будет более информативно.
Vladislav
мне кажется там всё подписано?
На самих графиках нет, вертикальная ось не подписана
Алексей
а я графики делаю и для английского языка, и делать две картинки меня заломало)
Василий
А да, увидел. А время листинга в секундах, я полагаю.
Василий
Алексей
похоже на то
George
io_direct кстати на zfs стоит явно отключать сейчас, там не оч производительная прослойка-заглушка
Vladislav
Ммм, libaio вполне себе дефолтный вариант теста, не уверен в чем проблема?
Nick
а, т.е. со стороны zfs или опций монтирования не поменять? И какой вариант тогда рекомендуется для мускля?
Василий
похоже на то
Интересные условия для теста zfs.А можно вас попросить протестировать то же самое, только вместо specal использовать ssd под slog и время сброса увеличить в несколько раз.
George
а, т.е. со стороны zfs или опций монтирования не поменять? И какой вариант тогда рекомендуется для мускля?
тут базово описывалось когда-то, правда за актуальность не скажу точно https://openzfs.github.io/openzfs-docs/Performance%20and%20Tuning/Workload%20Tuning.html#innodb
Василий
Ммм, libaio вполне себе дефолтный вариант теста, не уверен в чем проблема?
да нет проблем, просто пытаюсь для себя понять физический смысл тестов и причины полученных показателей.
Nick
тут базово описывалось когда-то, правда за актуальность не скажу точно https://openzfs.github.io/openzfs-docs/Performance%20and%20Tuning/Workload%20Tuning.html#innodb
Стабильно получаю ухудшение в любом сценарии при включении primarycache=metadata , но текст видимо обновился, про aio раньше не видел, спасибо
George
Стабильно получаю ухудшение в любом сценарии при включении primarycache=metadata , но текст видимо обновился, про aio раньше не видел, спасибо
primarycache=metadata соглашусь что если есть память есть смысл использовать all всё же, а так тут речь про "отдать вообще всю память что есть базе"
George
но не на 100% универсальный совет
Vladislav
Поясните.
Почитайте выше уже обсуждали про slog
Василий
Можно
а еще тоже самое но на файле в 16 и 32 гб.
Василий
Можно
Я правильно понимаю, что вы проводите тесты для выбора фс под условную БД на 128 гб с преобладающей записью, или под условную VM?
Алексей
Я правильно понимаю, что вы проводите тесты для выбора фс под условную БД на 128 гб с преобладающей записью, или под условную VM?
Нет. Я выбираю фс под 10-15 терабайтное количество мелких файлов. Чтение всегда рандомное, запись как получится, в основном асинхронная. Использование виртуальных машин не планируется. Соотношение чтение-запись примерно такое, да. Иногда происходит прогулка по всем файлам дабы убедиться что они есть. Ну и иногда приходит рипер который удаляет запойно по несколько часов так что всё может просто лечь
Василий
Видеоархив какой-то с камер ?
Василий
*Мелких файлов*
Могут как раз писать мелкими файликами до мегабайта вклбчительно, был свидетелем подобного решения. Какие ваши предположения?
Alex
io_direct кстати на zfs стоит явно отключать сейчас, там не оч производительная прослойка-заглушка
А как? Если я не ошибаюсь, в линухе direct_io для zfs пока невключаем(точнее)
George
А как? Если я не ошибаюсь, в линухе direct_io для zfs пока невключаем(точнее)
там мулька-прослойка есть, для поддержки интерфейса
Alex
https://github.com/openzfs/zfs/pull/10018
George
https://github.com/openzfs/zfs/pull/10018
а это уже честная реализация в части кеша
Василий
ааа.... ну тогда zfs тут вряд ли вам нужен, думаю он сильно про другое.
Алексей
ааа.... ну тогда zfs тут вряд ли вам нужен, думаю он сильно про другое.
сильно да, но до определенного времени меня устраивало как он работает с метой. Однако всё равно он не устраивает меня в части скорости записи (я банально получаю больше данных чем оно успевает записать) даже с sync=disabled а так же меня не устраивает медленный zfs send (казалось бы чего проще лей себе линейно, но нифига, полное рандомное чтение каждый раз)
Алексей
Скорее всего я просто буду делать dd раздела
Лвм снапшоты полная дичь для этого не годятся
Станислав
Мне нравится, что когда заканчиваются аргументы люди переходят к zfs send
Мне тоже нравится, когда сказать нечего, люди начинают цепляться к одному знакомому слову, лишь бы 5 копеек вставить
or
Zfs проигрывает во всем ?
Алексей
or
Не во всём
А если его потюнить?
Алексей
А если его потюнить?
Какие ваши предложения?
or
Какие ваши предложения?
Мои познания в zfs на уровне пользователя с мануалом))
жюн
мужчины, а подскажите, почему разницы так мало в скоростях между 2*riadz2 (1 скрин) и 10 (2 скрин) 12 дисков мне казалось, 10 будет куда быстрее
жюн
жюн
в случае 10 ещё и компрессия отключена
жюн
человек ливнул с чата от таких вопросов (700>699)
George
на поточке raidz может быть быстрее и это ожидаемо, на рандоме - у меня сразу вопрос какой у вас recordsize
жюн
если вы про объём тестовых данных - 1гб, 5 проходов
George
ну чтобы вам что-то ответить, покажите скрипт тестовый а дальше почитайте zfs recordsize , вообще рекомендую почитать https://openzfs.github.io/openzfs-docs/Performance%20and%20Tuning/Workload%20Tuning.html#basic-concepts
жюн
https://pastebin.com/PJcVmer5
жюн
скриптик такой
жюн
recordsize 128k
Vladislav
1гб...
Vladislav
Алексей
Не, ну так то директ=1
жюн
1гб...
а сколько надо? терабайты 10 тыщ лет тестить будет