George
см. Caution
George
https://openzfs.github.io/openzfs-docs/Project%20and%20Community/FAQ.html?highlight=swap#using-a-zvol-for-a-swap-device
George
аналогично
Ivan
Кстати наблюдал локапы в проксе и на lvm при активной работе со свопом.
Ivan
А чего бы не порекомендовать там просто отрезать себе раздел ?
George
George
George
у меня и положительный опыт с swap on zvol есть кстати, но на не больших нагрузках
Ivan
а blocksize выбирается в зависимости от размера сектора диска или исходя из других параметров ?
Сергей
вот будет в пуле лежать образ ВМ с линуксом, там ext3/ext4/xfs. Соответственно лучше под их размеры, а если NTFS - то под виндовый типовой размер кластера
Ivan
ага. а если своп ?
Ivan
хочу все знать. из чтения манов не все понятно.
Сергей
ну всё знать - это похвально. Но думаю что более 80% активной работы с вашим пулом будет не использование под своп. А под другие цели)
Ivan
т.е. следовать рекомендации pagesize ?
George
Ivan
George
Ivan
понял
Ivan
а где можно глянут список фич, которые ставятся по дефолту ?
George
George
https://openzfs.github.io/openzfs-docs/man/5/zpool-features.5.html
Ivan
если я какую-то из них явно укажу, то остальные фичи это не отключает ?
George
но не все активируются сразу, а только при фактическом использовании
George
Д
www.esos-project.com
Здравствуйте, Сергей, так вот я посмотрел у меня вроде как эта ось на полке то и будет стоять https://server19.ru/catalog/19_rn2-ss12/rn2ss12r/ так может все таки возможно будет zfs? ОС Enterprise Storage OS v.1.3.9 w/SCST target driver (с полной выгрузкой в RAM при старте системы).
Д
Д
"Сделать ZFS over iscsi можно и так, то это будет Host <-> ZFS over iscsi <-> NAS (с поддержкой ZFS over iscsi) <-> iscsi ВАШЕ хранилище." тут вообще запутался 😊
Д
у меня же будет допустим 1noda + по 10 в бонде, (20) будет подключена полка, на ней будут лежать vm Диски выбрал 4 штуки для полки таких Жесткий диск Western Digital HUS726T6TAL5204 это будет медленно?
Д
То есть будет упираться в протокол iscsi?
Сергей
в вашем случае конечное устройство - это просто ОГРОМНЫЙ массив, который можно презентовать через iscsi как блочные устройства (типа обычных дисков).
Д
получается работать будет медленно, но вариант с дисками и сборкой с отдельной нодой как хранилище, тоже не получается, в ноде места мало будет. Тем более куча дисков ssd по 450.
Сергей
Д
да, но 1 нода как отдельный физ сервер. там всего 6 дисков
Д
то есть по сути в шасси 4 отдельных сервера
Д
сразу два уходит на зеркало для proxmox
Сергей
Д
Да конечно
Д
тут прям напрашивается 3 шасси, все бы проблемы решились
Сергей
а отдельного расширения шасси для подключения только дисков нет?
Д
нету
Сергей
Д
То есть я кажется понял что вы имеете ввиду диски должны в полке отдельно подключатся
Сергей
Expander backplane option with the 24 x 2.5" HDD-equipped PowerEdge C6220 II enables a custom allocation of HDDs among the two 2U or four 1U nodes. Each server node can be configured independently of the other nodes in the same chassis to perform specific tasks.
Д
да его уже купили
Д
объяснять бесполезно у нас
Д
врятли
Сергей
в противном случае вас ждут сложности в создании общего хранилища и обеспечения HA для ВМок
Д
Сергей
Д
Д
что такое сплит брайн
Д
на 6 proxmox развернуть возможно его?
Д
просто почитал как то там все мудренно
Vladimir
drdb имеет это как слабую сторону в реплике 2
Vladimir
но я не юзал его, знаю что неплохая штука по перфомансу
Д
вот это я и читал там допиливаний много
Д
но похоже только этот вариант остается
Д
это если с полкой
Д
да полку вероятно отдельно цеплять как хранилище, где не надо быстродействия для таким vm
Сергей
ну можно и собственные 6 дисков на каждом блейде конечно разадавать
Д
А если полку прсото по iscsi использовать, в скорости проигрыш если ннапример с вариантом поверх zfs?
Д
Д
буду крутить смотреть
Сергей
Д