f1gar0
никак
а как полечить что образ VM весит 1тер а жрет 1.85 в zfs
f1gar0
есть сервер на 120+ Tb могу iscsi зацепиться к proxmox сделать movedisk всех вм убить rpool и собрать заново
f1gar0
только времени нету
George
скриптик для fio: for j in randread randwrite read write;do for bs in 4k 1m;do fio \ --name ${name}_${j}_${bs} \ --directory $loc \ --eta-newline=5s --rw=${j} --size=5g --io_size=10g --blocksize=${bs} --ioengine=libaio \ --fsync=1 --iodepth=1 --direct=1 --numjobs=32 \ --runtime=${t} --group_reporting --stonewall \ --fallocate=native \ --output=${name}_${j}_${bs}.json \ --output-format=json+ done done
Если что - на нвме скорость аллокации не существовавшего до этого блока обычно выше чем уже существующего, тесты без первого предзаполнения будут подвирать на запись
Alexander
Оверхед все равно будет
George
Вот это новость, спасибо
пустой ftl дешевле заполнить 🙂
Fedor
Я думал как раз без первичной аллокации он просто полезет в условный список пустых блоков
George
особенно забавно на дешёвых nvme видеть 3ГБ\с поточной записи в первый раз пока ftl пуст, а сразу после этого - реальные 900МБ\с, даже весь объём заполнять не нужно. Ну и стоит учитывать есть ли у диска кеш на быстром slc и его объём
George
а как полечить что образ VM весит 1тер а жрет 1.85 в zfs
Raidz? На нем это нормально, либо пересбор пула с другим ashift, либо пересоздать zvol с бОльшим volblocksize, либо использовать mirrors вместо raidz. У каждого пути свои нюансы
f1gar0
TrueNas нехрена с proxmox не дружит zfs over iscsi цепляю
f1gar0
bishop
я вот что подумал,можна зделать кэш на рам диске или безсмысленно? И следущие помимо кэша и логов есть еще доп диски для пула(truenas) что это за диски?
Fedor
Если зфс - действительно бессмысленно
bishop
Кеш для приложения?
сейчас посмотрю и отпишусь.
Ilya
И какие ещё там у тебя диски? Может, просто, не все в пул добавлены были?
Anatoly
под metadata disk наверное это имеется ввиду https://forum.level1techs.com/t/zfs-metadata-special-device-z/159954
Vladimir
O_DIRECT на ZFS 0.8.3 - поддерживается ?
Vladimir
0.8.3 - это который с Ubuntu 20.04 идёт
Nick
Да, но просто скипается и ни на что не влияет
Nick
Сам флаг в этой версии просто игнорится, на сколько я помню
Vladimir
https://openzfs.topicbox.com/groups/developer/T950b02acdf392290 - это не имплементировали в той версии ещё ?
Vladimir
https://github.com/openzfs/zfs/discussions/11677 - тут человек жалуется что в версии 0.8 он стал работать и замедлять что-то там
Vladimir
я ещё один тестик сделал - две системы : одна с SATA SSD в RAID0, вторая - NVME SSD с ZRAID1 , обе заполнены примерно на 5%
Vladimir
riv
я сравнивал на 10 Gbe на нетапах перформанс внутри гостевых ос на датасторе выданной по iscsi и по nfs - на nfs показатели по iops выше, а latency ниже или сравнимое..
Именно по этому он и оказывается больше! Там явно или косвенно возникает writeback. Большинство "тормозов" связано именно с отсутствием writeback-кэширования.
riv
zfs get sharenfs rpool
Я этим не пользовался, но уверен почему-то, что в linux он производится средствами ядра, которые просто настраиваются утилитами zfs, как и с samba-шарами (тоже не пользовлся ни разу)
Иван
Всем привет, помогите расширить пул.
Иван
Василий
тут два варианта: или добавить еще два зеркала или заменить диски на более емкие
Art
тут два варианта: или добавить еще два зеркала или заменить диски на более емкие
Обрати внимание, у него диски и так по 2ТБ, но зфс отданы разделы по 500 гб @ivandeg а как так получилось вообще?
Василий
Обрати внимание, у него диски и так по 2ТБ, но зфс отданы разделы по 500 гб @ivandeg а как так получилось вообще?
тогда бить зеркало и добавять по очереди. вроде линуховый зфс умеет так
Василий
а вообще, учитывая что там 1.6гб занято))
Василий
просто удалить и создать заново
Василий
а блин, тут оно системное
Василий
никогда так не ставил :(
Иван
Мне на одном из серверов нужно заменить диски на новые и большего объема. Я сделал тестовую лабу, создал пул на двух дисках, затем убрал один, поставил диск большего объёма, скопировал загрузчик, сделал attach нового диска большего объема. Провернул операцию со вторым диском меньшего объема. На этом этапе всё получилось, а вот расширить не могу.
Иван
А заменить нужно вот почему, дотянул...
Иван
😂
Иван
Может быть я не тем путём иду и есть другой способ, кроме забэкапить и развернуть на новой инсталляции, на новых дисках.
Василий
zpool set autoexpand=on tank
Василий
делал?
Иван
Art
А заменить нужно вот почему, дотянул...
А, понятно, ССДшкам скоро капут) Хотя я думаю в реале 840-е самсунги после 100% ещё доолго прослужат Щас покумекаю...
Иван
для расширения - убедиться, что раздел увеличен, если да - можно вручную пнуть zpool online -e
Как убедиться? zpool online -e rpool ata-WDC_WD2003FYYS-02W0B1_WD-WCAY00426560-part3 - правильно пинаю?
George
кажется там даже пул не обязателен
Art
Как убедиться? zpool online -e rpool ata-WDC_WD2003FYYS-02W0B1_WD-WCAY00426560-part3 - правильно пинаю?
Вот мне кажется корень проблемы, что ты указываешь конкретную партицию, то есть part3 А надо весь диск в команде указать
local
Добрый день! Можете дать рекомендации по сбору пула ZFS raid-10 x4HDD, в proxmox для запуска виндовых виртуалок. Памяти с запасом. Еще обратил внимание что при удалении в виртуальной машине большого кол-ва файлов - удаление ~1тыс файлов происходит быстро, потом падает до 0, зависает на 3 сек. и снова ускоряется, получается такая "лесенка":
nikolay
можете также поглядеть в гугле рекомендации по сжатию и dataset recordsize для виртуализации на проксе
nikolay
Диски wd gold
объем какой? убедитесь кстати что они не smr
nikolay
https://3dnews.ru/1008543
nikolay
1TB CMR
да, у wd gold нормальные вроде. 1 Тб это старые сата?
local
да, у wd gold нормальные вроде. 1 Тб это старые сата?
Ну видимо не совсем новый модельный ряд )
nikolay
так какая модель конкретно? от этого зависит какой параметр ashift выставлять
nikolay
512e или 512n?
Art
512e или 512n?
512n давно уже в истории же? 4Kn можно найти, в серверном сегменте Да и в любом случае ашифт 12 нужен, все равно в реале 4к блоками все HDD ворочают
nikolay
512n
значит задаете ashift=9