Сергей
ru_inblock
это кол-во операций чтения с блочного устройства. Здесь нет деления на считано из кэша или с физического диска
Сергей
Вопрос сделал я 2 пула один mirror, второй страйп. Есть ли вариант их расшарить через самбу одной шарой?
"конечно"! Точно так же как две разные папки в ext4 шарите одной шарой
Николай Орлов
да вот не приходилось))) обычно все скидывал в одну и ее шарил))
Николай Орлов
дилетант
Сергей
ну как сможете такое провернуть на ext4, то и в zfs получится))
Сергей
сделайте одну точку монтирования, в которой будут две submount. Два разных каталога в любом случае будут отображаться
Сергей
/mnt/samba_share/pool_1/ /mnt/samba_share/pool_2/ и шарьте /mnt/samba_share
Николай Орлов
круто
Николай Орлов
спасибо изучу
Dmitry
это кол-во операций чтения с блочного устройства. Здесь нет деления на считано из кэша или с физического диска
по-моему это именно физичекие чтения, по крацне мере для ext4 они интерпретируются потом так
Dmitry
ru_inblock (since Linux 2.6.22) The number of times the filesystem had to perform input.
Владимир
по-моему это именно физичекие чтения, по крацне мере для ext4 они интерпретируются потом так
Добились каких-то успехов после перехода на ZFS? Я после перехода с ext4 не особо почуствовал разницу, даже пожалел что не делал никаких тестов, потому что чисто по метрикам буд-то нифига не поменялось))
Сергей
кэш - это "слой" в ядре, приложение читает из блочного устройства и не знает о существовании кэша.
Владимир
ну я пока размышляю так, хуже не стало уже хорошо))
Ivan
если на том же железе удалось той же скорости добиться, то это вообще замечательно
Dmitry
а есть отдельные операции для чтения из кэша?
именно в этой функции я не вижу в коде. В коде который используется сейчас это делается так - есть общее кол-во вызовов чтения данных в кеш бд, из этого числа вычитается ко-во чтений из функции getrusage,результат - число чтений из кеша ОС(для ext4работает)
Ivan
zfs это ж про фичи и сохранность, а не про скорость.
Владимир
если на том же железе удалось той же скорости добиться, то это вообще замечательно
да, железо ровно тоже, только было в КВМ+докер, а стало LXC
Владимир
zfs это ж про фичи и сохранность, а не про скорость.
ну стало чуток шустрее, либо погрешности в статистике
Dmitry
Добились каких-то успехов после перехода на ZFS? Я после перехода с ext4 не особо почуствовал разницу, даже пожалел что не делал никаких тестов, потому что чисто по метрикам буд-то нифига не поменялось))
ну скорость записи ниже чем на ext4, но пока вроде умещаемся. нам zfs нужен для тонких клонов. а сейчас считаем статистику чтобы лучше интерпретировать планы запросов и хочется понять работают ли подходы, которые работали для ext4
Владимир
используете сжатие?
Dmitry
сколько ресайзблок?
тестировали 8,16,32,128 - только на 8 получилось достаточная скорость :( да используем сжатие
Dmitry
shared_buffers - чему равен?, его значение меняли после перехода на ZFS?
у нас есть для сравнения реплики на ext4, все параметры одинаковые с ними. размер буфера разный пробовали особого эффекта не было
Fedor
Разве что чуть увеличить стоимость чтения страниц, если прям уж припрёт
Владимир
https://pg.uptrace.dev/zfs/
но я прям не досканально придерживался, но прислушался к большей части рекомендаций
Владимир
можно увидеть параметры zfs?
Fedor
И для валов выделите отдельный датасет
Fedor
С бс 128
Dmitry
не догадываешься почему?))
ну у меня есть версия, а какой правильный ответ? (к слову скорость сильно зависит от типа запси, при создании больших объектов 128 выигрывает у 8, а при обычной нагрузке, только 8 вытягивает нужную производительность чтобы реплика не отставала)
Fedor
Остальные данные - строить профили записи и ставить соответствующе
Dmitry
так ты не ответил, сжатие юзаете?
вроде ответил, да используем
Dmitry
какое
дефолтное
Dmitry
дефолтное
пробовали все доступные
Fedor
Сжатие увеличивает время синхронной записи
Ivan
дефолтное
боюсь lz4 дефолт не на всех версиях zfs
Fedor
Хотя...
Владимир
пробовали все доступные
ты говоришь про ZFS
Владимир
Dmitry
Владимир
а я про постгрес)
Fedor
синхронную запись отклчили
Валы хотяб синхронно пишите, чтоб транзакционная целостность была
Fedor
И фулл пейдж врайтс
Dmitry
Валы хотяб синхронно пишите, чтоб транзакционная целостность была
у нас условия позволяют принять эти риски ради скорости
Fedor
Тогда гуд
Dmitry
И фулл пейдж врайтс
это все отклчено ради скорости
Dmitry
тут есть нюанс, что при создании индексов больших 128 дает очень хороший прирость скорости записи
Fedor
А обновление их? :)
Dmitry
но т.к. основной тип нагрузки который нужно держать это теплый стенлбай, то пришлось остановится на 8
Владимир
хотя на сколько я понял в реальной нагрузке не всё так однозначно)
Владимир
но я сам пока на 8к сижу
Владимир
и что за накопители?
Dmitry
там где у нас были проблемы - в GCP диски
Ivan
уфф )
Dmitry
ashift пробовали разный не было разницы
Владимир
у тебя что не реальные физ накопители?
Ivan
zfs лучше на живом железе
Dmitry
zfs лучше на живом железе
я знаю, но все инфраструктура в gcp
Владимир
ну как-то так), у меня физ дедик)
Владимир
ashift пробовали разный не было разницы
а какие именно пробовали и какое значение сейчас?
Владимир
0 нельзя)
Dmitry
оставили 13 вроде (сейчас нет доступа к этому железу)