George
George
>22Гбайт/сек , данные уже будут в районе кеша проца
Δαρθ
вот и для других бы такое )))
ivdok
Делал по гайду с openzfs орг, Там где /Getting Started/Arch Linux/Root on ZFS/2-system-installation
ivdok
Суть - я запутался в этом сраном гайде, и в rootfs лежит какой-то неправильный zpool.cache, который из-за chattr +i не может быть перезаписан, и система падает с кёрнелом
George
George
George
Арч честно говоря не тестил, там китаец его пушил, он вроде проверял, если косяк нашёл - пиши, залью
ivdok
Zpool import -R
Получилось вроде, но для рекурсивного маунта пришлось взять хак в виде zfs list -rH -o name rpool | xargs -L 1 zfs mount
George
ivdok
ivdok
А как вот такое дебажить? В консоли постоянно сыпется "invalid or missing cache file", потом ругается, что не может найти пул мой, потом kernel паник из-за отсутствующего rootfs
ivdok
zpool.cache внутри чрута я проверил через xxd, там мои диски
ivdok
George
George
systemd-boot, но хотел efistub или refind
хм, ну они должны без boot пула работать. В общем либо cache file должен присутствовать в initramfs, либо руками ядру сказать загружаться с конкретного пула
по аналогии с грабом
GRUB_CMDLINE_LINUX="root=ZFS=rpool/ROOT" или вместо имени пула можно ещё auto чтоли, но тут как повезёт
George
ну и initramfs пакетик от zfs чтобы там нужные скрипты были
Ķ₳ℝḾ₳
Добрый вечер!
Что скажете про ZFS в raid для сервера бэкапов?
Спасибо!😊☺️😊
Δαρθ
Δαρθ
Олег
Есть желание раширить пул с помощью дисков MG09ACA18TE. Там технология MAMR , наксколько она жива с zfs? Ну и отговорите от диска)
Δαρθ
Δαρθ
ааа
Олег
George
Nikita
CMR возможно имелось ввиду.
Δαρθ
SMR nooooo
почему кстати? лагать будет или из массива выпадать?
George
исключая одну WD модель которая именно ломается)
Art
SMR nooooo
ох, блин, что я написал... CMR конечно! Как русское эс! Не как доллар!
Простите, народ
George
Δαρθ
[возвращаясь к тебе бенчмарка чексуммов]
правильно ли я вижу что edonr работает в 512битовом режиме?
module/zfs/edonr_zfs.c:#define EDONR_MODE 512
module/zfs/edonr_zfs.c: EdonRInit(ctx, EDONR_MODE);
Ķ₳ℝḾ₳
А подскажите насколько критично надобность SSD для кэша?
Сейчас стоит парочка HDD WD Red;
Хочется ZFS RAID 1 будут сливаться бэкапы раз в день, там в сумме 30Gb,где-то выходит, из Proxmox...
Спасибо!
central
а насколько вам там вообще нужен кеш?
DOK ꧁꧂
Привет всем! такая проблема: пишет что снапшотами все забито. как удалить снапшоты которые убунта зачемто понаделала?
DOK ꧁꧂
если я их удалю ничего же не будут плохого?
Ilya
DOK ꧁꧂
zfs list -H -o name -t snapshot | grep rpool выдает тонну снапшотов
Ilya
Вот под бэкапы (zfs recv, rsync) виртуалка с 2гб RAM
Ķ₳ℝḾ₳
f1gar0
Добрый день у нас холивар есть 12 sas 15k дисков raid контроллер не умеет HBA / JBOD что будет если сделать raid 0 и развернуть на нем zfs?
Fedor
плохая идея - подложки вида райд0 могут потенциально принести проблемы
f1gar0
как го характера в продакшене?)
Fedor
снижение гарантий целостности блоков данных
f1gar0
аргументированно можно?)
Fedor
там многослойный пирог получается вместо прямого доступа
Fedor
а где многослойный пирог - там искажение в большинстве случаев о состоянии запросов на запись
f1gar0
ок спасибо за развернутый ответ а то начали холиварить что HHHL 1735 от самсунг по сути тоже раид только там прямой доступ к ячейкам идет
central
f1gar0
меня заставляют сделать такое)
f1gar0
я отпинываюсь уже пол дня
central
А когда один диск помрёт что будут заставляющие делать?
Ivan
это не просто бэстпрактис, это чтоб не огрести реальных проблем
f1gar0
с учетом того что дискам годиков так 5 но их не насиловали
Fedor
Ilya
обожаю букву R в термине RAID0
Олег
RAIDZ в RADZ2 конвертируется?
Anonymous
Подскажите, пожалуйста, как загуглить проблему. Есть пул stor1 (raidz2) в нём датасет /bact на нем квота 10TB . Записываю туда много мелких файлов, общим объемом где то 5 ТБ, записалось 1.7 ТБ данных, а потом собственно ошибка - кончилось место. В случае всяких там ext4 я бы посмотрел что по inode, на что мне смотреть в ZFS ?
Egor V
df -i
Egor V
У zfs размер логического сектора большой по умолчанию
Egor V
Отсюда меньше inode
Anonymous
ipxxxxxxxxxx:/export/zfs-bacteria 18740088048 3112866 18736975182 1% /mnt
Anonymous
может ли это быть связано с экспортом ZFS через NFS ?
Ilya
А в пуле-то место есть свободное?
И ты смотри на той машине, где экспорт, а не той, куда он смонтирован
Anonymous
место есть
root@es:/# zfs list
NAME USED AVAIL REFER MOUNTPOINT
stor1 2.91T 30.2T 238K /stor1
stor1/bacteria 1.28T 8.72T 1.28T /stor1/bacteria
stor1/plants 1.63T 1.37T 1.63T /stor1/plants