Олег
Думал и на потери пакетов по NFS и на кеши Proxmox дисков
Олег
и на тип диска
Олег
Просто спонтанно с ubuntu 14 крашится диск крайне редко
Олег
при том если начал
Олег
то будет повторяться постоянно чуть ли не каждый день)))
Олег
бредятина полная
Олег
а вот со снапшотом я вообще ахринел
Владимир
да, этого достаточно. Но, кмк - не любите вы себя))), раз такое хотите сделать.
там нижэе вопрос, он ответ на то почему я так делаю
Владимир
fio --directory=/nvme/subvol-100-disk-0/ --name=read --rw=read --bs=8k --size=200G --numjobs=1 --time_based --runtime=60 --group_reporting --ioengine libaio --iodepth=32 fio --directory=/nvme/subvol-100-disk-0/ --name=test --rw=randread --bs=8k --size=10G --numjobs=1 --time_based --runtime=60 --group_reporting --ioengine libaio --iodepth=32 fio --directory=/nvme/subvol-100-disk-0/ --name=test --rw=write --bs=8k --size=10G --numjobs=1 --group_reporting --ioengine libaio --iodepth=32 fio --directory=/nvme/subvol-100-disk-0/ --name=test --rw=randwrite --bs=8k --size=10G --numjobs=1 --group_reporting --ioengine libaio --iodepth=32
Владимир
Ну и тесты решил вот так провести
Сергей
так поддержка nvme идёт в ядре. или речь о каком-то другом драйвере?
Владимир
о нём самом
Владимир
просто есть мнение что этот драйвер с оф сайта чем-то отличается от поставляемого с ОС
Владимир
хочется прверить это мнение
Nikolay
Прежде чем сюда написать что-то )
Сергей
просто есть мнение что этот драйвер с оф сайта чем-то отличается от поставляемого с ОС
в таком случае лучше мерять само устройство. /dev/.... указывать в filename=
Владимир
Владимир
ну наверное тут есть некий смысл, у меня есть там не очень критичный раздел, померяю на нём ещё дополнительно кроме замеров на зволюме
Сергей
убрать его из пула на время тестов
Владимир
он на кешировании, я просто убрал его да
Владимир
интересно сравнить теперь будет как тест проходит с ZFS и без)
Владимир
один и тот же тест
Владимир
READ: bw=13.6MiB/s (14.3MB/s), 13.6MiB/s-13.6MiB/s (14.3MB/s-14.3MB/s), io=817MiB (857MB), run=60001-60001msec READ: bw=7529MiB/s (7894MB/s), 7529MiB/s-7529MiB/s (7894MB/s-7894MB/s), io=441GiB (474GB), run=60001-60001msec
Владимир
первый через zfs, второй на прямую)
Владимир
я так понимаю он меряет скорость уже ужатой инфы
Владимир
зато иопсы смотри
Владимир
io это же иопсы?
Сергей
io это же иопсы?
нет, это общий объём записанных/прочитанных данных. IOPS так будут иопсы
Владимир
ммммм
Владимир
тогда что может быть не так?
Сергей
наверное нужно теперь разобраться с fio? как её правильно "готовить"
Владимир
fio --directory=/nvme/subvol-100-disk-0/ --name=read --rw=read --bs=8k --size=200G --numjobs=1 --time_based --runtime=60 --group_reporting --ioengine libaio --iodepth=32
Владимир
и что тут не так?
Владимир
перед тестами я сделал вот так
Владимир
zfs set primarycache=none nvme/subvol-100-disk-0 zfs set secondarycache=none nvme/subvol-100-disk-0 zfs set atime=off nvme/subvol-100-disk-0 zfs set compression=zle nvme/subvol-100-disk-0 zfs set dedup=off nvme/subvol-100-disk-0
Владимир
Попробую выключить сжатие вовсе
Сергей
и что тут не так?
может и всё так). Вы сейчас попробуйте описать теперь обычным "человеческим" языком что меряете и каким образом такой командой. Когда объясняешь - и самому становиться понятнее)
Владимир
отключение компрессии только ухудшило результаты, в процем с районе погрешности, всёравно всё плохо)
Сергей
объясняю, взял первые попавшиеся тесты в инете))
тогда лучше задавать вопрос "что не так" - авторам этих тестов))) fio - это инструмент, как молоток. Молотком можно гвозди забивать, можно орехи колоть. Можно и пальцы отбить. Поэтому - спросите себя: "что я хочу померять?"
Владимир
я хочу померять изменение латенси в нагрузке на обычном драйвере и на этом новомодном
Владимир
нагрузка пларируется в виде тарантула, постгреса
Владимир
такое
Сергей
я хочу померять изменение латенси в нагрузке на обычном драйвере и на этом новомодном
очень обобщённо. измерить латенси в потоковом чтении? в потоковой записи? в случайном чтении? в случайной записи? в случайном чтении-запись? Померять файл на ZFS, померять zvol на ZFS, померять девайс? И таких вопросов перед составлением теста для fio может быть и больше)
Олег
такое
с постгресом на ZFS будет все плохо
Олег
почему же?
Никогда не догонете XFS рекомендуемый по скорости, отставание будет в разы
Владимир
zfs будет на гипервизоре
Олег
ну внутри виртуалки может и будет xfs
Вы думаете если добавите слоев то ускорите операции?)
Сергей
с постгресом на ZFS будет все плохо
вы это зря) Но переубеждать не буду. У каждого своя вера)
Олег
Каждый слой -10% минимум даст
Олег
Но у нас конечно write >50%
Nikolay
соберите на ssd
Nikolay
пул специално для БД
Олег
соберите на ssd
А вы думаете куда постгрес упирается)))) в латенси SSD как раз у нас
Олег
хотя если U2 но тамо бюджет.... только полка будет стоит тыщ 300
Олег
Но мы пересмотрели задачи и ушла на Кликхаус
Олег
и получили выигрышь в 100 раз по скорости
Олег
для каждой задачи своя БД
Сергей
Я не верю-тестил
я тоже. 1 млн. tps pgbench -S, и около 90000 tps на полном TPC-B
Олег
Какие настройки пула использовали?
Сергей
Какие настройки пула использовали?
wal на отдельном пуле из оптанов. база на пуле raid-10 из 4х nvme + slog на оптане для wal recsize 128k, для базы 16k в пг отключено всё что уже обеспечивается самой zfs
Владимир
вы это зря) Но переубеждать не буду. У каждого своя вера)
Я всё ещё не понимаю откуда у меня такая просадка получается
Сергей
Но мы пересмотрели задачи и ушла на Кликхаус
ну если у вас не OLTP, то очень правильное решение
Владимир
я тестил не NVME вовсе))
Владимир
он создал файл в dev))
Владимир
что-то я пока не вкурил как там передать раздел, разбираюсь
Сергей
что-то я пока не вкурил как там передать раздел, разбираюсь
nvme list потом через filename= в fio указать имя устройства
Владимир
Обычно размер страницы же 8кб, не?)
обычно 128к, 8к это если речь про проксмокс
Сергей
Обычно размер страницы же 8кб, не?)
Да. Но тогда компрессия получается хуже. А с 16к сжимается лучше и при этом tps особо не страдает. При recsize 64/128 сжатие просто отличное, но оверхед по размеру блока даёт просадку в tps