Олег
Думал и на потери пакетов по NFS и на кеши Proxmox дисков
Олег
и на тип диска
Олег
Просто спонтанно с ubuntu 14 крашится диск крайне редко
Олег
при том если начал
Олег
то будет повторяться постоянно чуть ли не каждый день)))
Олег
бредятина полная
Олег
а вот со снапшотом я вообще ахринел
Сергей
Владимир
Владимир
fio --directory=/nvme/subvol-100-disk-0/ --name=read --rw=read --bs=8k --size=200G --numjobs=1 --time_based --runtime=60 --group_reporting --ioengine libaio --iodepth=32
fio --directory=/nvme/subvol-100-disk-0/ --name=test --rw=randread --bs=8k --size=10G --numjobs=1 --time_based --runtime=60 --group_reporting --ioengine libaio --iodepth=32
fio --directory=/nvme/subvol-100-disk-0/ --name=test --rw=write --bs=8k --size=10G --numjobs=1 --group_reporting --ioengine libaio --iodepth=32
fio --directory=/nvme/subvol-100-disk-0/ --name=test --rw=randwrite --bs=8k --size=10G --numjobs=1 --group_reporting --ioengine libaio --iodepth=32
Владимир
Ну и тесты решил вот так провести
Сергей
так поддержка nvme идёт в ядре. или речь о каком-то другом драйвере?
Владимир
о нём самом
Владимир
просто есть мнение что этот драйвер с оф сайта чем-то отличается от поставляемого с ОС
Владимир
хочется прверить это мнение
Nikolay
Nikolay
Прежде чем сюда написать что-то )
Сергей
Владимир
Владимир
ну наверное тут есть некий смысл, у меня есть там не очень критичный раздел, померяю на нём ещё дополнительно кроме замеров на зволюме
Сергей
Сергей
убрать его из пула на время тестов
Владимир
он на кешировании, я просто убрал его да
Владимир
интересно сравнить теперь будет как тест проходит с ZFS и без)
Владимир
один и тот же тест
Владимир
READ: bw=13.6MiB/s (14.3MB/s), 13.6MiB/s-13.6MiB/s (14.3MB/s-14.3MB/s), io=817MiB (857MB), run=60001-60001msec
READ: bw=7529MiB/s (7894MB/s), 7529MiB/s-7529MiB/s (7894MB/s-7894MB/s), io=441GiB (474GB), run=60001-60001msec
Владимир
первый через zfs, второй на прямую)
Сергей
Владимир
Владимир
я так понимаю он меряет скорость уже ужатой инфы
Владимир
зато иопсы смотри
Владимир
io это же иопсы?
Владимир
Сергей
io это же иопсы?
нет, это общий объём записанных/прочитанных данных. IOPS так будут иопсы
Владимир
ммммм
Владимир
тогда что может быть не так?
Сергей
наверное нужно теперь разобраться с fio? как её правильно "готовить"
Владимир
fio --directory=/nvme/subvol-100-disk-0/ --name=read --rw=read --bs=8k --size=200G --numjobs=1 --time_based --runtime=60 --group_reporting --ioengine libaio --iodepth=32
Владимир
и что тут не так?
Владимир
перед тестами я сделал вот так
Владимир
zfs set primarycache=none nvme/subvol-100-disk-0
zfs set secondarycache=none nvme/subvol-100-disk-0
zfs set atime=off nvme/subvol-100-disk-0
zfs set compression=zle nvme/subvol-100-disk-0
zfs set dedup=off nvme/subvol-100-disk-0
Владимир
Попробую выключить сжатие вовсе
Сергей
и что тут не так?
может и всё так). Вы сейчас попробуйте описать теперь обычным "человеческим" языком что меряете и каким образом такой командой. Когда объясняешь - и самому становиться понятнее)
Владимир
Владимир
отключение компрессии только ухудшило результаты, в процем с районе погрешности, всёравно всё плохо)
Сергей
объясняю, взял первые попавшиеся тесты в инете))
тогда лучше задавать вопрос "что не так" - авторам этих тестов))) fio - это инструмент, как молоток. Молотком можно гвозди забивать, можно орехи колоть. Можно и пальцы отбить. Поэтому - спросите себя: "что я хочу померять?"
Владимир
я хочу померять изменение латенси в нагрузке на обычном драйвере и на этом новомодном
Владимир
нагрузка пларируется в виде тарантула, постгреса
Владимир
такое
Олег
такое
с постгресом на ZFS будет все плохо
Владимир
Олег
почему же?
Никогда не догонете XFS рекомендуемый по скорости, отставание будет в разы
Владимир
Владимир
zfs будет на гипервизоре
Олег
Каждый слой -10% минимум даст
Олег
Олег
Но у нас конечно write >50%
Nikolay
соберите на ssd
Nikolay
пул специално для БД
Олег
соберите на ssd
А вы думаете куда постгрес упирается)))) в латенси SSD как раз у нас
Олег
хотя если U2 но тамо бюджет.... только полка будет стоит тыщ 300
Олег
Но мы пересмотрели задачи и ушла на Кликхаус
Олег
и получили выигрышь в 100 раз по скорости
Олег
для каждой задачи своя БД
Сергей
Я не верю-тестил
я тоже. 1 млн. tps pgbench -S, и около 90000 tps на полном TPC-B
Олег
Какие настройки пула использовали?
Сергей
Какие настройки пула использовали?
wal на отдельном пуле из оптанов. база на пуле raid-10 из 4х nvme + slog на оптане
для wal recsize 128k, для базы 16k
в пг отключено всё что уже обеспечивается самой zfs
Владимир
Владимир
я тестил не NVME вовсе))
Владимир
он создал файл в dev))
Владимир
что-то я пока не вкурил как там передать раздел, разбираюсь
Fedor
Сергей
Обычно размер страницы же 8кб, не?)
Да. Но тогда компрессия получается хуже. А с 16к сжимается лучше и при этом tps особо не страдает. При recsize 64/128 сжатие просто отличное, но оверхед по размеру блока даёт просадку в tps