Владимир
Egor V
Egor V
После скорость нормальная. Тестил на 10г оптике
Владимир
Ivan
ну такой себе тюнинг
Олег
Alexander
Alexander
раз уже теги решили завести
Олег
#tuning
Шикарно) сча попробую)
Roman
Это какой -же штатный?
https://github.com/open-iscsi/targetcli-fb в репах дебиана тоже есть
дальше в пуле датасторы создаете и их блочные девайсы раздаете
Egor V
Достаточно только sync
Egor V
И сразу лучше раз в 5-10
Nikolay
#Вопсро Принимаю инкриментные бэкапы. Получил такую ошибку.
zfs cannot receive incremental stream: destination space quota exceeded.
Вычитал что это когда размер снапшота превышает quota. Но у меня quota=none Есть только refquota=150G. Установил её в none и ошибка ушла. Получается refquota так же размер снапшота ограничивает ?
George
только это аналогичные советы "если данные терять не боитесь"
Egor V
Я не терял. Полет уже несколько лет.
Egor V
С VMware ESXi в связке
George
Я не терял. Полет уже несколько лет.
выдерните розетку из хранилища и найдите данные за последние секунд 5
Т.е. zfs будет консистентен, но если у вас какое-то кластерное решение где sync запись всё же важна, то может быть чревато
George
особенно если деньги считаете)
Egor V
Согласен
George
Egor V
Делаем бекапы, считаем RTO/RPO. Если все устраивает, то ок
George
Согласен
я так то тоже люблю sync=disabled, но как панацея советовать его даже не вспомнив про atime=off, recordsize, mirrors вместо raidz, xattr=sa...
George
Олег
Олег
Не пробовал кто-нибудь в реальности JBOD сделанные на Raid карте Adaptec перенести на hba адаптер?
Alex
переносил в обратную сторону, сконфигурировав на raid диски как jbod.
всё нормально.
Alex
упс. забыл что существует адаптек. =)
я делал на lsi.
Alex
Там был древний raidz, времён 8-9й фри, на голых дисках.
После переноса массив продолжил работать без проблем.
Eugen
Товарищи, а что говорят не так у zfs+nvme?
Eugen
Типа много накопителей работают туго?
George
Т.е. Всё прекрасно работает, но все 100% возможных иопсов с диска не снять пока
Eugen
Ага, это не зависит от количества, один или 10, верно?
Vladislav
Vladislav
я даже от 4 SSD в зеркале не могу получить больше 5k IOPS
Владимир
Владимир
Владимир
у себя могу прогнать, для примера
Vladislav
5c интервал, но еще надо оптимизацию внутри VM делать, чтоб не жрали лишний раз IOPS
capacity operations bandwidth
pool alloc free read write read write
---------- ----- ----- ----- ----- ----- -----
rpool-SSD 181G 699G 778 7,13K 3,39M 128M
rpool-SSD 181G 699G 475 5,69K 2,11M 116M
rpool-SSD 181G 699G 328 4,66K 1,29M 91,7M
rpool-SSD 180G 700G 227 3,62K 937K 70,8M
rpool-SSD 180G 700G 220 2,81K 916K 66,2M
rpool-SSD 180G 700G 291 3,90K 1,20M 110M
rpool-SSD 180G 700G 283 3,70K 1,16M 83,5M
Eugen
Ну это не много на самом деле. Но по наблюдениям и правда, продуктивность сата и нвме в единичных дисках считай одинаковые. Есть несколько серверов с саташными и нескалько с нвме, работают одинаково шустро. Но я думал что все нивелирует arc
Alexander
Ребят а как заквотировать 20 процентов объема чтобы zfs не зпаполняла из и всехда оставались свободные блоки?
Владимир
А для чего?
Alexander
при заполнении пула более 80 процентов zfs просаживается по производительности записи т.к. дольше ищет свободные блоки
Alexander
квотирование 20% позволяет эту проблему обойти
Alexander
или это вообще не верное утверждение?
Alexandr
#вопрос
Alexandr
можно ли уменьшит объем scpecial (сделан на разделах) если изначально было выделено чрезмерно много места под него?
Alexandr
Спешиал - зеркало из 2х зарделов с разных ссд
Roman
Roman
Alexandr
Отключить, пересоздать.
а как потом мету на него снова вытеснить и смалл файлы? (перелив всего объема не предлагать)
George
George
https://openzfs.github.io/openzfs-docs/Performance%20and%20Tuning/Module%20Parameters.html#spa-slop-shift
Alexandr
Спасибо, понял, какраз пулл есть(
Alexandr
Видимо выбора не остаётся как только перелив
Alexandr
Спасибо всем что подтвердили, я надеялся что вдруг я чего то не знаю и перелива можно избежать(
d
Roman
Алексей
Коллеги, прошу помочь. во время сенда завис мбуффер на принимающей стороне, снапшот не докопировался, датасет "подвис". сделал роллбэк, откатилось, но у датасета по прежнему остался резюме токен. и при попытке повторно накатить выдает cannot receive incremental stream destination has been modified contains partially-complete state from "zfs receive -s". я как то раньше такое фиксил, но не могу вспомнить как. 😁
George
George
ага https://openzfs.github.io/openzfs-docs/man/8/zfs-receive.8.html
Алексей
Алексей
хммммммм. оказыватся это не мбуффер завис, а пул ведет себя странно. читает как не в себя. хотя никаких процессов кроме наливки в него снапшота на нём нет
Ivan
Алексей
в том то и дело что нет
Алексей
дедупликации нет
Алексей
отпустило. принимал значит принимал. всё принял, а в конце выдал:
Алексей
connect to [192.168.100.10] from host04.a.b [192.168.100.4] 36440
in @ 0.0 kiB/s, out @ 0.0 kiB/s, 1168 MiB total, buffer 0% full
summary: 1181 MiByte in 12min 50.7sec - average of 1569 kiB/s
cannot receive incremental stream: destination pooli/subvol-122-disk-0 has been modified
since most recent snapshot
d
Что-то у меня после обновления система зависать намертво стала
Алексей
т.е. гигабайт раскатал, а потом, (внезапно!) оказалось что он уже был изменен