Maksim
root@ah64:~# awk '/^size/ { print $1 " " $3 / 1048576/1024 }' < /proc/spl/kstat/zfs/arcstats
size 124.329
root@ah64:~# cat /sys/module/zfs/parameters/zfs_arc_max
137438953472
root@ah64:~# echo 37438953472 >> /sys/module/zfs/parameters/zfs_arc_max
root@ah64:~# awk '/^size/ { print $1 " " $3 / 1048576/1024 }' < /proc/spl/kstat/zfs/arcstats
size 34.3159
Владимир
Владимир
Владимир
Владимир
Тот жбод о котором ты говоришь явно не покажет смарт диска по обычному пути обращения
Ivan
Владимир
Хаха
Ivan
adaptec 5004 или как-то так
Владимир
Что за сказки
Ivan
Владимир
Ivan
Владимир
Ivan
.
и как из этого получается что я сам какой-то размер ставил ?
Владимир
Владимир
Раз говоришь то чего не делал сам)
Ivan
это как всякие всратые usb-sata. подключаешь, а диск на пару метров меньше.
Владимир
Тогда всё сходится)
Владимир
Ivan
Ты это и имел ввиду?
я имел ввиду что у меня была разница в размере диска через jbod и через hba.
Владимир
Ivan
может он до 2тб так подрезает. 4тб не пробовал пихать.
Ivan
суть проста. купил тру hba и не гадаешь.
Владимир
Владимир
Он ещё и дешевле чем физ рейды
Владимир
))
Aba
Тогда надо выражаться точнее)
Он достаточно точно выразился, это ты уже сам додумал. "контроллерами, которые на jbod меняют размер диска".
CARA
Ну всмысле что jbod пишет на диск какие то свои метки и как бы воткнув диск в другой комп он не заведётся)смысл же такой?)
Maksim
а можно ли так проверить кошерность джбода - воткнуть в контроллер, создать там фс, вытащить, воткнуть в hba, посмотреть читается ли? или это только необходимое условие, но не достаточное?
upd уже похожее спросили
Ivan
вероятнее всего без проблем такой переезд случится.
хотя читал в интернетах что у кого-то возникала проблема.
Ivan
не понимаю зачем надеяться и гадать, когда hba на авито от 3к, а бу с гарнтией от 6к можно найти.
Ivan
неприятная история с jbod может выстрелить лет через 5-8 когда на дисках начнут выползать бэды. или когда кэш глючить начнет.
Владимир
Ivan
Владимир
Станислав
Изначально писало "Отказано в доступе". Вычитал, что нужно ACL права выставить. Сделал:
setfacl -m u:zfsreplica:rwx /mnt/nv/
Также сделал владельцем директории /mnt/nv/ юзера zfsreplica, после этого пишет то, что выше "Insufficient privileges"
Denis
Коллеги помогите советом:
root@tc-pbs:~# zpool import
pool: mail_data
id: 11180699773431060342
state: FAULTED
status: The pool metadata is corrupted.
action: The pool cannot be imported due to damaged devices or data.
The pool may be active on another system, but can be imported using
the '-f' flag.
see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-72
config:
mail_data FAULTED corrupted data
mpathb ONLINE
есть шанс данный пул хотя бы для чтения подключить?
Denis
zpool import -f mail_data
cannot import 'mail_data': one or more devices is currently unavailable
Lone
Жаль таблички нету где нормальны jbod а где не очень(
Смотрите. У Вас уже есть SAS3 контроллер. Это модно, молодёжно, дорого.
Если у Вас будут крутиться HDD, то SAS2 на 24 диска достаточно.
Если будут SSD - тогда без SAS3 не жить.
SAS3 контроллеры стоят дорого, за SAS3 backplane гоняются и они тоже стоят дорого.
Вы, конечно, можете купить что-то дешевое кетайское, только учтите, что там подделывают всё, что только можно. Так что Ваш SAS3 контроллер с aliexpress скорее всего будет сделан на Малой Арнаутской. Не жалуйтесь потом, что у Вас что-то глючит.
BTW, Adaptec контроллеры греются как хорошая печка.
Если хотите посмотреть видео с объяснялками по контроллерам, то вот этот товарищ очень хорош. Он занимается тем, что на ebay продает эти самые контроллеры.
Vladislav
Смотрите. У Вас уже есть SAS3 контроллер. Это модно, молодёжно, дорого.
Если у Вас будут крутиться HDD, то SAS2 на 24 диска достаточно.
Если будут SSD - тогда без SAS3 не жить.
SAS3 контроллеры стоят дорого, за SAS3 backplane гоняются и они тоже стоят дорого.
Вы, конечно, можете купить что-то дешевое кетайское, только учтите, что там подделывают всё, что только можно. Так что Ваш SAS3 контроллер с aliexpress скорее всего будет сделан на Малой Арнаутской. Не жалуйтесь потом, что у Вас что-то глючит.
BTW, Adaptec контроллеры греются как хорошая печка.
Если хотите посмотреть видео с объяснялками по контроллерам, то вот этот товарищ очень хорош. Он занимается тем, что на ebay продает эти самые контроллеры.
Попрошу. На Малой Арнаутской только жилые дома. В мастерской дядюшки Ляо.
Δαρθ
как-то незаметно релизнулось аж 2.1.9 с поддержкой ядер 6.1, ура!
devы openzfs молодцы :)
Sora
Что-то документация дает туманный ответ, файл zpool_cache должен лежать в корне пула которому принадлежит, или его можно разместить в любое другое место, например в другой пул?
Sora
Volodymyr
Самое сложное было восстановить исходный порядок дисков слетевших вдевов, чтобы указать childrens в правильном порядке в восстанавливаемой таблице Пула
Ivan
Volodymyr
ХБА полка на 60 дисков СуперМикро Сас3
Volodymyr
Точнее одна на 12 и вторая на 60
Volodymyr
Я из сферы восстановления данных , мы клонили все диски и работали на копиях на своем оборудовании
Volodymyr
Volodymyr
Пул таблица которая должнa быть расположена на всех дисках по офсету 0х80013FE0
Volodymyr
Вопрос куда и как улетел кеш остался загадкой. Клиент после ребута удалил таргет пул на который бекапили данные и когда все зависло. Кеш мог оказаться на том пуле?
Denis
Volodymyr
Проблема не в файловой zfs а какие-то баги в концепции хранения кеша у ТруНас/ФриНас . Возможно бутовая ссд или флеш память сбои дает.
Rodion
Всем привет! Ламерский вопрос: сделал на RockyLinux 9 zfs pool в /opt/datapool, в нём filesystem fs1, экспортировал pool в /etc/export (/opt/datapool 192.168.25.0/24(rw,no_root_squash))
На клиенте монтирую шару mount -t nfs storage:/opt/datapool/fs1 /opt/destdbdata/, копирую туда файл иииии - не вижу его на машине storage
но при этом zfs list показывает, что отожралось место в datapool (?!) но не в datapool/fs1 (!!).
Как на машине-сервере увидеть файлы в пуле или ЧЯДнТ?
Sergey
Сергей
Всем привет
Знаю что тупой вопрос, но все же, smr диски в зфс рейде на сколько плохая идея?
Art
Всем привет! Ламерский вопрос: сделал на RockyLinux 9 zfs pool в /opt/datapool, в нём filesystem fs1, экспортировал pool в /etc/export (/opt/datapool 192.168.25.0/24(rw,no_root_squash))
На клиенте монтирую шару mount -t nfs storage:/opt/datapool/fs1 /opt/destdbdata/, копирую туда файл иииии - не вижу его на машине storage
но при этом zfs list показывает, что отожралось место в datapool (?!) но не в datapool/fs1 (!!).
Как на машине-сервере увидеть файлы в пуле или ЧЯДнТ?
Смотри, если у тебя в системе есть пул datapool, то по умолчанию есть и корневая файлосистема datapool
По умолчанию она монтируется как /datapool, но у тебя как я понял в /opt/datapool
И вот каталог /opt/datapool ты и экспортировал через НФС, как я вижу
Соответственно, файлы с клиента туда и попадают
Maksim
Maksim
Если условно фпйлопомойка с редкими записями, то smr скажется только когда диск сдохнет и ребилд надо будет делать
Сергей
Art
bes
Сергей
Art
Сергей
Denis
Может кто по draid подсказать? работал работал и вдруг отвалился диск, ребилд проходит, запускаю clear на диске который отвалился уже в самом конце появлялись ошибки на запись, ну думаю ок, поеду заменю сата кабель, заменил кабель, ребилд прошел все отлично, начал работать с массивом теперь вывалились ошибки на чексуммы, снова хотспаре встал на замену того же диска
Собственно вопрос:
если например как закончился resilvering сделать detach диска на котором сейчас проблема с чексуммами, после чего как понимаю нужно сделать zpool labelclear чтоб очистить диск от меток zfs, дальше необходимо сбросить разметку gpt или не обязательно? и нужно ли клонировать разметку диска при его повторном добавлении в пул собственно replace?
Rodion
Fedor
Силами зфс, тем более, что это интегрированная история
Δαρθ
Силами зфс, тем более, что это интегрированная история
я например тоже не очень понимаю в чем профит.
например если часть шар силами зфс а часть стандартные (не с зфс)
а чтт будет с зфс-шарами если стандартные перезапустились? (нфс-демон рестартнулся)?
как по мне, в 3 раза больше гемора без видимых преимуществ
Δαρθ
хренью типа создания маунт поинта на кажлый датосет нфс демон тоже вполне занимается
Fedor