edo1
но чтобы он получился, нам надо, чтобы эти два мегабайта лежали одним куском; и очень желательно, чтобы и читались одним куском
edo1
поэтому я и написал про увеличение recordsize
edo1
а зачем его делить?
edo1
что один диск потратит 10мс на поиск, что два диска потратят по 10мс на поиск, быстрее не будет
edo1
но! в первом случае у вас второй диск свободен и может пока выполнять другие команды, а во втором он занят
edo1
опять возвращаемся к однопоточной/многопоточной нагрузке
edo1
зависит от того как читается
edo1
если вы делаете условно tar -c, то файлы читаются по очереди (однопоточная нагрузка)
edo1
если у вас 1000 пользователей скачивают файлы, то запросы могут (и будут) приходить одновременно (многопоточная нагрузка)
edo1
конечно
edo1
смотрите iostat
edo1
ещё и zpool iostat -r интересен, покажет какими блоками у вас идёт обмен
edo1
в общем-то не только в zfs, а в любой фс
Олег
Как получили этот вывод? Какой командой?
Алексей
sync=disabled
Александр
Друзья, подскажите: есть у меня проксмокс, есть на нем пул, собранный из двух SSD- дисков. Есть легенда, что под виртуалки нужно правильно выбирать recordsize. У меня нагрузка невысока (машины с веб-серверами, часть тестовая притом), но есть, скажем, диски в машинах, где лежат статические файлы, есть - где лежит БД MySQL. Я особо разницы не заметил, но, может, и "смотреть" не сумел. Но в ZFS размеры блоков динамические, т.е. size не должен влять сильно?
Александр
"внутри" zfs лежат, проксмокс так кладет. По факту это raw оказывает, записанный в блочном устройстве, реализованном как zfs
Александр
Раньше в qcow2 хранил, сейчас вот так
Александр
А причина в чем, если динамически размер будет выбираться?
Владимир
А причина в чем, если динамически размер будет выбираться?
я от тебя услышал впервые про динамический размер)
Владимир
можно по подробнее?))
Александр
И как выбрать, где 8к, где 128к сделать?
Владимир
И как выбрать, где 8к, где 128к сделать?
ну 8кб я ставлю под постгрескул, 128кб там где нет сильной нужды в иопсах
Владимир
надо смотреть на софт который там крутится
Александр
Сергей
"внутри" zfs лежат, проксмокс так кладет. По факту это raw оказывает, записанный в блочном устройстве, реализованном как zfs
для таких блочных устройств размер блока фиксированный - volblock. по умолчанию прокс его делает 8к recsize - это размер блока для файловых систем создаваемых на zfs. Которые например можно биндить к контейнерам или сами контейнеры лежат в таких файловых системах
Александр
так я могу или не могу, в сумме, оптимизировать производительность вирт. диска с БД, скажем, против диска со статикой?
Александр
Собственно, все сводится к такому: как выжать из zfs максимальную скорость работы диска ВМ. Можно ускорять не все ВМ-диски, а только содержащие (внутри ВМ) файлы БД (pgsql или mysql).
Владимир
так получается лучше выжимать
Владимир
ну и вообще, постгрескул у меня тянул производительность на моей практике когда я выделял мало ОЗУ на воркера что порождало создание темп файлов и просаживало дисковую произовдительность ухудшая отклик.
Владимир
Стоит так же подумать на счёт тюнинга ПО и изучения что именно у вас тормозит
Сергей
Собственно, все сводится к такому: как выжать из zfs максимальную скорость работы диска ВМ. Можно ускорять не все ВМ-диски, а только содержащие (внутри ВМ) файлы БД (pgsql или mysql).
поставить volblock size = XXk, где XX - размер страницы для вашей СУБД подключить к zfs SLOG для ускорения операций синхронной записи (fsync) ну и Владимир правильно указал - вынести СУБД из ВМ и разместить в контейнере.
Александр
SLOG - диски и так SSD.
Сергей
SLOG - диски и так SSD.
и для SSD SLOG бывает полезен
Сергей
если конечно ваши ССД - это не интел оптаны
Сергей
тогда вам SLOG не нужен
Владимир
Ну и вообще как ты определил что именно накопителя мало?
Александр
ты вот скажи, тебе записи не хватает или чтения?, ну вот это хотя бы для начала)
Кажется, что записи. Потому что при потоке на запись субд тупить сильно больше начинает, конечно.
Александр
Ну и вообще как ты определил что именно накопителя мало?
Скорее, есть вопрос, что-то можно выжать еще больше из него )
Алексей
универсальный ответ sync=disabled
Алексей
😂😂😂😂
Владимир
Владимир
ты так и не отвечаешь что там у тебя тормозит)
Алексей
спасает от всех болезней, но потенциально добавляет новых
Сергей
универсальный ответ sync=disabled
для СУБД)))), ага - "лечит". До первого падения хоста
Алексей
Всё остальное либо требует денег либо не даёт сколько либо ощущения что улучшилось
edo1
я не уверен на 100%, может она сама подхватывает
edo1
как с mdraid
edo1
под рукой нет ни одной виртуалки на zfs )
edo1
For example, if you use volblocksize=8k and ext4 on top of that, you should create the ext4 with "-b 4096 -E stripe-width=2" https://zfsonlinux.topicbox.com/groups/zfs-discuss/T968b07629ed860c3
Александр
поставить volblock size = XXk, где XX - размер страницы для вашей СУБД подключить к zfs SLOG для ускорения операций синхронной записи (fsync) ну и Владимир правильно указал - вынести СУБД из ВМ и разместить в контейнере.
Когда я поставлю volblock, ори применится к новым данным, так? Те нужно создать пустой диск, поставить ему в zfs volblock, потом создать фс в вм на этом диске, и скопировать файлы данных бд?
Александр
volblock применяется ко всему тому. в томе не может быть блоков разного размера
Те перенести данные с тома, убить том, заново его создать с новым volblock, вернуть машины, и как-то потом еще фс внутри проверить на выравнивание?
edo1
если конечно ваши ССД - это не интел оптаны
вы слишком хорошего мнения об оптанах )
edo1
edo1
картинка с винды, извините. время доступа на запись в микросекундах красным оптан, зелёным какой-то серверный intel
edo1
в общем-то почти любой серверный ssd при разумной глубине очереди будет на записи заметно быстрее оптана
Александр
Сергей
Посмотрел. Везде 8к стоит
какая СУБД внутри? PG?
Сергей
в общем-то почти любой серверный ssd при разумной глубине очереди будет на записи заметно быстрее оптана
дайте название вашего серверного ССД. Я вам по спекам покажу что он не может быть быстрее оптана
edo1
а что за оптан? P48XX, P5XXX?
десктопный, но тут это роли не играет, задержки у них одинаковые. optane пишет напрямую во флэш (wt), а обычный накопитель кэширует в памяти (wb)
Сергей
Да
с точки зрения volblocksize уже ничего делать не нужно. Можно попробовать пересоздать ext4 как советовали выше, но чуда я бы не ждал. "Чудо" будет если отключите sync, но это чревато...