Egor V
zfs send/receive нужен
Egor V
На destination голая система
Egor V
Потом замена mountpoint
Aleksey
Подскажите как примонтировать пул так чтобы были видны все его потомки?
root@t2:/# zfs list
NAME USED AVAIL REFER MOUNTPOINT
containters_pool 630M 8.59G 96K none
containters_pool/containers 8.09M 8.59G 96K none
containters_pool/containers/first 7.99M 8.59G 229M /var/snap/lxd/common/lxd/storage-pools/default/containers/first
containters_pool/custom 96K 8.59G 96K none
Мотирую
zfs set mountpoint=/mnt containters_pool
Получаю пустой /mnt
George
George
ну или руками поштучно маунтить, если руками mountpoint у дочерних датасетов не меняли, то они примонтируются в директории где родительский датасет примонтировался
Aleksey
Спасибо
Aleksey
Не очень удобно канечно..
George
Не очень удобно канечно..
а что не удобно то? у вас датасеты дочерние могут быть уже примонтированы, если автомаунт включен то при импорте пула всё само куда надо импортнется
George
а если не автомаунтом при импорте, то это по умолчанию уже ручной привод
George
либо всё анмаунтить и маунтить обратно, либо поштучно
Eugen
Народ всем привет. Такие вопоосы набили оскомину наверное, но кто в курсе когда ждать zfs 2.0 на фряху?
Egor V
13-CURRENT вроде
Eugen
Eugen
Не совсем по теме, но все же рядом. Если есть разбирающиеся люди в ctld фряшный, буду очень признателен за совет. Вообщем ситуация такая, множество раз (в среднем 1000 раз в сутки) удаляетя и создается лун для таргета с помощью ctladm, спустя 2-4 недели ловлю глюк на рандомном таргете, когда удалить блок с помощью ctladm не возможно (удаление длится вечность). Спасает только ребут сервера. Такое поведение на 11.2 и 12.1 версиях. Может кто сталкивался?
MelkorBSD
12.2. При активных файловых операциях на zfs (сборка портов, использование tar) резко растет wired и впоследствии не уменьшается. Постепенно выжирает всю память (12гб) и лезет в своп. При этом arc_max установлен в 2гб, prefetch отключен. Можно ли ещё что-то подкрутить, чтобы ограничить потребление памяти zfs?
Eugen
MelkorBSD
Выключено
Eugen
Выключено
А arc min и arc metalimit укпзаны в соответствии с arc max?
MelkorBSD
vfs.zfs.arc_meta_strategy: 0
vfs.zfs.arc_meta_limit: 512000000
vfs.zfs.arc_free_target: 64935
vfs.zfs.arc_kmem_cache_reap_retry_ms: 1000
vfs.zfs.compressed_arc_enabled: 1
vfs.zfs.arc_grow_retry: 60
vfs.zfs.arc_shrink_shift: 7
vfs.zfs.arc_average_blocksize: 8192
vfs.zfs.arc_no_grow_shift: 5
vfs.zfs.arc_min: 1425110528
vfs.zfs.arc_max: 2048000000
Eugen
Dmitry
Всем привет! В домашнем сервере на proxmox 6.3 собрал диски следующего размера: 3 Tb, 2 по 2 Tb, 2 по 1,5 ТБ, 4 по 500 Gb подскажите, как создать пулы с точки зрения максимальной эффективности использования дискового пространства?
Ivan
Roman
Dmitry
Не совсем :) Поэтому спрашивал совета.
Сергей
Ну цель «максимально использовать дисковое пространство». Какая цель)), такие и советы (верные). Потеря данных не будет критичным случаем?
Dmitry
Смотря какая потеря. Пара битых файлов - это одно, а диск вроде бы сразу не умирает. Но я могу узнать с какого диска копировать инфу при появлении на нем сбоев?
Fedor
Обслуживание будет полностью остановлено
Fedor
Диск может умереть сразу в том числе
Ivan
в моей практике чаще диски моментально становятся недоступными (например одна голова отваливается), чем появляются небольшие бэды.
Сергей
Dmitry
Тогда как лучше поделить по пулам?
Ivan
на lvm можно собрать jbod том. выход из строя диска в таком томе повредит только файлы размешенные на диске. и файлы частично размещенные.
Сергей
Тогда как лучше поделить по пулам?
Цель поменять. Сделать целью надежность и скорость. Тогда например можно собрать рейд10, или raidz. Но тогда 12Тб никак не будет. От 6 до 9
Dmitry
Как сделать, чтобы было 9?
Сергей
Raidz
Dmitry
Ivan
чем больше число, тем больше дисков можно терять и тем меньше полезного пространства будет
Dmitry
Насколько я понимаю из солянки 3 Tb, 2 по 2 Tb, 2 по 1,5 ТБ, 4 по 500 Gb при raidz1 будут использоваться по 500 Гб с каждого диска?
Egor V
уже давно корпоративные и дорогие СХД при подготовке массивов представляют диски на набор chunk-ов, из которых и собирают RAID-X группы, пулы и т.д.
Dmitry
А как использовать 3 тб. разделить на 2 партиции по 1,5?
Murmuring
Murmuring
И озу
Dmitry
Dmitry
Egor V
George
d
Похоже на живого человека
Fedor
Тогда обратится.
Fedor
gf fifthihcg contact with group administrators to unlock
Ivan
возможно это кот
Roman
Можно собрать raidz1 из 5 по 2 Тб
Krey
Egor V
Дык может скучно на выходных...
Я на mirror держал root pool из двух 500ников старых. Раз в год один помирать решал, replace, и едем дальше... Через 5 лет все 500ки старые просто кончились в итоге)
Александр
nagual
[root@truenas /mnt/zpool/zhome/max]# dmesg |grep ABYZ
da3: <ATA WDC WD5003ABYZ-0 1S03> Fixed Direct Access SPC-4 SCSI device
da0: <ATA WDC WD5003ABYZ-0 1S03> Fixed Direct Access SPC-4 SCSI device
da1: <ATA WDC WD5003ABYZ-0 0E.1> Fixed Direct Access SPC-4 SCSI device
nagual
[root@truenas /mnt/zpool/zhome/max]# smartctl -a /dev/da0
smartctl 7.1 2019-12-30 r5022 [FreeBSD 12.2-RC3 amd64] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital RE4
Device Model: WDC WD5003ABYZ-011FA0
Serial Number: WD-WMAYP7109404
LU WWN Device Id: 5 0014ee 05906462d
Firmware Version: 01.01S03
User Capacity: 500,107,862,016 bytes [500 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS (minor revision not indicated)
SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Mon Jan 4 16:35:14 2021 EET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
nagual
[root@truenas /mnt/zpool/zhome/max]# smartctl -a /dev/da1
smartctl 7.1 2019-12-30 r5022 [FreeBSD 12.2-RC3 amd64] (local build)
Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org
=== START OF INFORMATION SECTION ===
Model Family: Western Digital RE4
Device Model: WDC WD5003ABYZ-011FA0
Serial Number: WD-WMAYP7530856
LU WWN Device Id: 0 000000 000000000
Firmware Version: 65.00E.1
User Capacity: 500,107,862,016 bytes [500 GB]
Sector Size: 512 bytes logical/physical
Rotation Rate: 7200 rpm
Device is: In smartctl database [for details use: -P show]
ATA Version is: ATA8-ACS (minor revision not indicated)
SATA Version is: SATA 2.5, 6.0 Gb/s
Local Time is: Mon Jan 4 16:35:32 2021 EET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled
Valerii
Ребят, извиняюсь за ламерский вопрос. Просто никогда с этим не сталкивался. Есть десктоп с жёстким диском и одним пулом на zfs.
Как мне отделить home от всего остального так, чтобы делать слепки состояния и ролбеки, не затрагивая home?
d
d
Valerii
d
да
d
но я сделал так:
rpool/ROOT/debian это /
а
rpool/ROOT/home это home
d
то есть, они на одном уровне иерархии находятся
d
d
или сделать бэкап хомяка с его внутренними сабсетами