nikolay
да у большинства такое позволяет, могу предположить что не у всех и чего дальше, тебе поговорить не с кем?)
смелое утверждение про большинство. как и все ваши остальные предположения. думаю на этом закончим.
Александр🇷🇺
Так так, не флудите тут 😈 флудите в личке, тема бэкапов острая, но помним, что тут zfs chat :)
Владимир
zpool status pool: tank state: ONLINE config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 scsi-350026b7683410715 ONLINE 0 0 0 scsi-350026b7683410975 ONLINE 0 0 0 scsi-350026b768341050a ONLINE 0 0 0 scsi-350026b76834105d1 ONLINE 0 0 0 scsi-350026b76834104e7 ONLINE 0 0 0 scsi-350026b7683410525 ONLINE 0 0 0 scsi-350026b7683410535 ONLINE 0 0 0 scsi-350026b7683410994 ONLINE 0 0 0 errors: No known data errors
Владимир
sync; dd if=/dev/zero of=tempfile bs=1024M count=1024; sync 1024+0 records in 1024+0 records out 1099511627776 bytes (1.1 TB, 1.0 TiB) copied, 921.982 s, 1.2 GB/s
Владимир
выходит скорость одинаковая
Владимир
sync; dd if=/dev/zero of=tempfile bs=1024M count=1024; sync 1024+0 records in 1024+0 records out 1099511627776 bytes (1.1 TB, 1.0 TiB) copied, 921.982 s, 1.2 GB/s
попробуй тестировать без кеша ядра, в прочем на таком объёме он бы наверное весомо не помог бы
Владимир
выходит скорость одинаковая
а должна была быть ниже
Владимир
ну чисто в теории
Владимир
Перевод контроллера 420i в режим HBA проходит с небольшими шаманскими действиями, по этому хорошо бы понимать должно быть быстрее или медленнее ?
Олег
Перевод контроллера 420i в режим HBA проходит с небольшими шаманскими действиями, по этому хорошо бы понимать должно быть быстрее или медленнее ?
HBA даст некоторый прирост точно, но не прям вах.... XFS сильно быстрее, но и надежность его сильно меньше, как пример бедблоки легко превратят в кашу массив, а неожиданная пропажа питания может развалить напрочь
nikolay
HBA даст некоторый прирост точно, но не прям вах.... XFS сильно быстрее, но и надежность его сильно меньше, как пример бедблоки легко превратят в кашу массив, а неожиданная пропажа питания может развалить напрочь
насчет надежности - сложно говорить, надежность конфигурации с аппаратным raid контроллером напрямую зависит от наличия bbu, при его отсутствии нужно использовать режим write-through, который на порядок медленнее любого софтового рейда
nikolay
сейчас в режиме hba
тогда соберите md девайс в raid6 и проверьте два варианта - с ext4 и с xfs
Δαρθ
пул при ребуте импортится но не маунтится, маунтпоинт прописан в датасете, в нем же canmount=on. что надо сделать чтоб сам маунтился?
Vladislav
зависит от версии ОС
Δαρθ
5.10.xx ядро, 2.0.4 zfs, default os :) в смыcле linux
Δαρθ
что мне непонятно, должен ли автомаунт вообще происходить сам, или же тупо надо в fstab прописать или zfs mount -a запускать скриптами? ps: не rootfs
central
что мне непонятно, должен ли автомаунт вообще происходить сам, или же тупо надо в fstab прописать или zfs mount -a запускать скриптами? ps: не rootfs
у zfs Же есть свойство mountpoint которое определяет куда pool (и не только забыл общее название) будет монтироваться
Δαρθ
store_pool/store_set mountpoint /mnt/zfs local store_pool/store_set canmount on default но при этом store_pool/store_set mounted no -
Δαρθ
это после ребута
Vladislav
5.10.xx ядро, 2.0.4 zfs, default os :) в смыcле linux
Вот и поищите, что у вас за дистрибутив
Δαρθ
если пишу zfs mount этосамое -- монтируется
George
sync; dd if=/dev/zero of=tempfile bs=1024M count=1024; sync 1024+0 records in 1024+0 records out 1099511627776 bytes (1.1 TB, 1.0 TiB) copied, 921.982 s, 1.2 GB/s
во первых вы тестируете один поток, один поток на дефолтных настройках не утилизирует пул на 100%. Про dd уже тоже сказали, что это не инструмент для бенчей)
George
и если точно будете писать большими блоками, то увеличивайте recordsize конечно же
Fedor
Примеров команд с ней в гугле в целом хватает
Δαρθ
только нигде не пишут что надо сервис zfs-mount запускать... ну да ладно.
Δαρθ
Новая особенность -- нфс шара замаунченного датасета в нфс НЕ ПОКАЗЫВАЕТ вложенные датасеты-каталоги Чтозанах?
Δαρθ
sharenfs=off везде, шара средствами /etc/exports
Fedor
sharenfs=off везде, шара средствами /etc/exports
Лучше уж средствами зфс делать.
Fedor
Надо смотреть исходники, но может быть так, что зфс- фс уж очень виртуализированная.
Fedor
И обычный нфс может ее не понять. Сам этот вопрос не изучал, но вполне может такое быть
George
Лучше уж средствами зфс делать.
Гибче делать не средствами zfs, всё равно разницы в nfs сервере не будет, плюс только в хранении в датасете параметров для шары (на zol)
Δαρθ
Лучше уж средствами зфс делать.
если ср-вами zfs, то шара прописывается только в корневом сете, остальное автоматом шарится?
Δαρθ
Надо смотреть исходники, но может быть так, что зфс- фс уж очень виртуализированная.
вообще пишут что проблема глобальная, если разные фс в пределах одного шаренного нфс-корня
Δαρθ
crossmnt емнип поможет
пока вроде помог, спс :)
nikolay
доброе утро, возник вопрос по добавлению дисков в пул. есть сервер с подключенной к нему дисковой полкой через HBA. в полке 33 диска NL-SAS по 8 Тб. настроен multipath, каждый диск представлен как dm-name устройство. когда был собран пул на базе этой полки (4 vdev по 8 дисков) то zol разбил диски на две партиции и пул у меня собрался на базе партиций dm-name-*1. сейчас при добавлении новой полки, делаю процедуру расширения пула. добавляю vdev через команду zpool add и вижу что диски при добавлении не делятся на партиции. не совсем понятно почему при создании пула диски были разделены на партиции, а при добавлении партиции не создаются..
nikolay
при этом vdev в пул добавился, ошибок не было
nikolay
[root@~]# zpool status pool: pool3__1 state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM pool3_1 ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 dm-name-mpathv1 ONLINE 0 0 0 dm-name-mpathw1 ONLINE 0 0 0 dm-name-mpathj1 ONLINE 0 0 0 dm-name-mpathh1 ONLINE 0 0 0 dm-name-mpathac1 ONLINE 0 0 0 dm-name-mpathu1 ONLINE 0 0 0 dm-name-mpathad1 ONLINE 0 0 0 dm-name-mpathz1 ONLINE 0 0 0 raidz2-1 ONLINE 0 0 0 dm-name-mpatht1 ONLINE 0 0 0 dm-name-mpaths1 ONLINE 0 0 0 dm-name-mpathab1 ONLINE 0 0 0 dm-name-mpathaa1 ONLINE 0 0 0 dm-name-mpathi1 ONLINE 0 0 0 dm-name-mpathx1 ONLINE 0 0 0 dm-name-mpathq1 ONLINE 0 0 0 dm-name-mpathc1 ONLINE 0 0 0 raidz2-2 ONLINE 0 0 0 dm-name-mpathn1 ONLINE 0 0 0 dm-name-mpathag1 ONLINE 0 0 0 dm-name-mpathk1 ONLINE 0 0 0 dm-name-mpathaf1 ONLINE 0 0 0 dm-name-mpathr1 ONLINE 0 0 0 dm-name-mpathd1 ONLINE 0 0 0 dm-name-mpathaj1 ONLINE 0 0 0 dm-name-mpathah1 ONLINE 0 0 0 raidz2-3 ONLINE 0 0 0 dm-name-mpathak1 ONLINE 0 0 0 dm-name-mpathy1 ONLINE 0 0 0 dm-name-mpathai1 ONLINE 0 0 0 dm-name-mpathe1 ONLINE 0 0 0 dm-name-mpatho1 ONLINE 0 0 0 dm-name-mpathm1 ONLINE 0 0 0 dm-name-mpathae1 ONLINE 0 0 0 dm-name-mpathp1 ONLINE 0 0 0 raidz2-6 ONLINE 0 0 0 dm-name-mpathal ONLINE 0 0 0 dm-name-mpatham ONLINE 0 0 0 dm-name-mpathan ONLINE 0 0 0 dm-name-mpathao ONLINE 0 0 0 dm-name-mpathap ONLINE 0 0 0 dm-name-mpathaq ONLINE 0 0 0 dm-name-mpathar ONLINE 0 0 0 dm-name-mpathas ONLINE 0 0 0 special mirror-5 ONLINE 0 0 0 dm-name-mpathf1 ONLINE 0 0 0 dm-name-mpathg1 ONLINE 0 0 0 logs mirror-4 ONLINE 0 0 0 dm-name-mpathb1 ONLINE 0 0 0 dm-name-mpatha1 ONLINE 0 0 0 spares dm-name-mpathl1 AVAIL
nikolay
raidz2-6 - это vdev, который я добавил сегодня. не возникнет ли у меня проблем с тем, что на дисках не созданы партиции *1 и *9?
nikolay
добавлял командой zpool add pool3_1 raidz2 dm-name-mpathal dm-name-mpatham dm-name-mpathan dm-name-mpathao dm-name-mpathap dm-name-mpathaq dm-name-mpathar dm-name-mpathas
nikolay
таблицы разделов на дисках нет..
Ivan
я на proxmox (debian 10, zfs2.0.4) делал так же (за исключением того, что у меня нет multipath) и партиции создались.
Владимир
надо было ставить дебиан))
Владимир
Кстати в дебе в бекпортах уже 2.0.3 версия, товольно свеженько в сравнении с центосом и прочими
Владимир
в центос тоже есть репы со свежим zfs.
ну только центос сейчас или умирающий центос или тот который вечно обновляющийся, ни тот ни другой явно не предназначен для адекватного продакшена
Владимир
там же новый центос стреам это ролинг релиз по сути
Владимир
надо отчаяться чтобы в прод это выкатить))
Ivan
это всё холивар )
nikolay
я написал про центос стрим? стоит вполне себе стабильная версия ос и zol. никаких ошибок замечено не было, причем такая связка на разных серверах. но расширение пула через mpath устройства я не делал ни разу.
Владимир
ты серьёзно что-то настраиваешь на серваке ОС которого закончит поддержку через несколько месяцев?
nikolay
это всё холивар )
согласен, пока Владимир не пришлет ссылку на баг треккинг который описывает мою проблему в связке с центосом..
Владимир
согласен, пока Владимир не пришлет ссылку на баг треккинг который описывает мою проблему в связке с центосом..
та тут дело даже не в твоём баге, а в том что я вообще не вижу смысла на центосе что-то сейчас настраивать если у тебя очень скоро уже не будут приходить обновления по безопасности банально
nikolay
ты серьёзно что-то настраиваешь на серваке ОС которого закончит поддержку через несколько месяцев?
этот сервер живет уже полтора года. о какой поддержке по поводу центоса речь? что перестанут выпускать обновления?
Владимир
Коллеги, у центос появилась поддержка zfs "из коробки" ?
Ivan
а ?
Владимир
Твой заказчик знает что у него не будет секьюрных обновлений со следующего года?
Владимир
Коллеги, у центос появилась поддержка zfs "из коробки" ?
да вроде как, я даже как-то пытался настроить, но на тот момент когда я это делал были некоторые сложности, и я в итоге отказался от идеи
Владимир
мой заказчик - это я)
то есть тебя не смущает что обнов не будет со следующего года?))
Владимир
создаёшь сервер на полгода?