Egor V
zfs send/receive нужен
Egor V
На destination голая система
Egor V
Потом замена mountpoint
Vladislav
На destination голая система
тоже с ZFS, иначе танцы с загрузчиком
Aleksey
Подскажите как примонтировать пул так чтобы были видны все его потомки? root@t2:/# zfs list NAME USED AVAIL REFER MOUNTPOINT containters_pool 630M 8.59G 96K none containters_pool/containers 8.09M 8.59G 96K none containters_pool/containers/first 7.99M 8.59G 229M /var/snap/lxd/common/lxd/storage-pools/default/containers/first containters_pool/custom 96K 8.59G 96K none Мотирую zfs set mountpoint=/mnt containters_pool Получаю пустой /mnt
George
ну или руками поштучно маунтить, если руками mountpoint у дочерних датасетов не меняли, то они примонтируются в директории где родительский датасет примонтировался
Aleksey
Спасибо
Aleksey
Не очень удобно канечно..
George
Не очень удобно канечно..
а что не удобно то? у вас датасеты дочерние могут быть уже примонтированы, если автомаунт включен то при импорте пула всё само куда надо импортнется
George
а если не автомаунтом при импорте, то это по умолчанию уже ручной привод
George
либо всё анмаунтить и маунтить обратно, либо поштучно
Eugen
Народ всем привет. Такие вопоосы набили оскомину наверное, но кто в курсе когда ждать zfs 2.0 на фряху?
Egor V
13-CURRENT вроде
Eugen
13-CURRENT вроде
Спасибо!
Eugen
Не совсем по теме, но все же рядом. Если есть разбирающиеся люди в ctld фряшный, буду очень признателен за совет. Вообщем ситуация такая, множество раз (в среднем 1000 раз в сутки) удаляетя и создается лун для таргета с помощью ctladm, спустя 2-4 недели ловлю глюк на рандомном таргете, когда удалить блок с помощью ctladm не возможно (удаление длится вечность). Спасает только ребут сервера. Такое поведение на 11.2 и 12.1 версиях. Может кто сталкивался?
MelkorBSD
12.2. При активных файловых операциях на zfs (сборка портов, использование tar) резко растет wired и впоследствии не уменьшается. Постепенно выжирает всю память (12гб) и лезет в своп. При этом arc_max установлен в 2гб, prefetch отключен. Можно ли ещё что-то подкрутить, чтобы ограничить потребление памяти zfs?
MelkorBSD
Выключено
Eugen
Выключено
А arc min и arc metalimit укпзаны в соответствии с arc max?
MelkorBSD
vfs.zfs.arc_meta_strategy: 0 vfs.zfs.arc_meta_limit: 512000000 vfs.zfs.arc_free_target: 64935 vfs.zfs.arc_kmem_cache_reap_retry_ms: 1000 vfs.zfs.compressed_arc_enabled: 1 vfs.zfs.arc_grow_retry: 60 vfs.zfs.arc_shrink_shift: 7 vfs.zfs.arc_average_blocksize: 8192 vfs.zfs.arc_no_grow_shift: 5 vfs.zfs.arc_min: 1425110528 vfs.zfs.arc_max: 2048000000
Dmitry
Всем привет! В домашнем сервере на proxmox 6.3 собрал диски следующего размера: 3 Tb, 2 по 2 Tb, 2 по 1,5 ТБ, 4 по 500 Gb подскажите, как создать пулы с точки зрения максимальной эффективности использования дискового пространства?
MelkorBSD
Это тестовая машина, установленная на zfs?
Десктоп, главным образом, ну и сборочная станция
Dmitry
Просто создай пул из всего)
По ходу в общем raid0 только.
Сергей
По ходу в общем raid0 только.
Просто хочу убедиться) - это же осознанное решение собрать из 9 дисков рейд0?
Dmitry
Не совсем :) Поэтому спрашивал совета.
Сергей
Ну цель «максимально использовать дисковое пространство». Какая цель)), такие и советы (верные). Потеря данных не будет критичным случаем?
Dmitry
Смотря какая потеря. Пара битых файлов - это одно, а диск вроде бы сразу не умирает. Но я могу узнать с какого диска копировать инфу при появлении на нем сбоев?
Fedor
Обслуживание будет полностью остановлено
Fedor
Диск может умереть сразу в том числе
Ivan
в моей практике чаще диски моментально становятся недоступными (например одна голова отваливается), чем появляются небольшие бэды.
Dmitry
Тогда как лучше поделить по пулам?
Ivan
на lvm можно собрать jbod том. выход из строя диска в таком томе повредит только файлы размешенные на диске. и файлы частично размещенные.
Сергей
Тогда как лучше поделить по пулам?
Цель поменять. Сделать целью надежность и скорость. Тогда например можно собрать рейд10, или raidz. Но тогда 12Тб никак не будет. От 6 до 9
Dmitry
Как сделать, чтобы было 9?
Сергей
Raidz
Dmitry
Raidz
raidz какой?
Ivan
чем больше число, тем больше дисков можно терять и тем меньше полезного пространства будет
Dmitry
Насколько я понимаю из солянки 3 Tb, 2 по 2 Tb, 2 по 1,5 ТБ, 4 по 500 Gb при raidz1 будут использоваться по 500 Гб с каждого диска?
Egor V
Насколько я понимаю из солянки 3 Tb, 2 по 2 Tb, 2 по 1,5 ТБ, 4 по 500 Gb при raidz1 будут использоваться по 500 Гб с каждого диска?
можно большие винты нарезать на GPT партиции и уже из партиций собирать пулы. тогда вариантов много разных (зеркала для критичных данных, raidz для менее критичных, но емких и т.д.
Egor V
уже давно корпоративные и дорогие СХД при подготовке массивов представляют диски на набор chunk-ов, из которых и собирают RAID-X группы, пулы и т.д.
Egor V
Насколько я понимаю из солянки 3 Tb, 2 по 2 Tb, 2 по 1,5 ТБ, 4 по 500 Gb при raidz1 будут использоваться по 500 Гб с каждого диска?
итого выходит: 5 партиций по 1,5 Тб для RAIDz1 7 партиций по 500 Гб для второго RAIDz1 еще 1 Тб останется на первом диске - под какой нить TEMP/ISO/etc...
Dmitry
А как использовать 3 тб. разделить на 2 партиции по 1,5?
Murmuring
И озу
Murmuring
Распишите, пожалуйста подробнее, как вы поделили.
Видимо жирные диски по 1.5тб сделали. 3/2 и из 2тб 1.5, остальные по 500
Egor V
А проц не загнется все это обслуживать?
зависит от планируемой нагрузки
d
Похоже на живого человека
Fedor
Тогда обратится.
Fedor
gf fifthihcg contact with group administrators to unlock
d
Тогда обратится.
Живого с развивающимся инсультом
Ivan
возможно это кот
Roman
Можно собрать raidz1 из 5 по 2 Тб
Egor V
Дык может скучно на выходных... Я на mirror держал root pool из двух 500ников старых. Раз в год один помирать решал, replace, и едем дальше... Через 5 лет все 500ки старые просто кончились в итоге)
Александр
Я бы не стал из подобной солянки ничего собирать. Приключения себе на 5 точку искать
+100. Если очень хочется потрахаться, лучше найти женщину)
nagual
Насколько я понимаю из солянки 3 Tb, 2 по 2 Tb, 2 по 1,5 ТБ, 4 по 500 Gb при raidz1 будут использоваться по 500 Гб с каждого диска?
Купил на olx диск, по паркировке 1 в 1 с моими, по смарту нулячий, прошивка левая и перепрошить нельзя, работает медленнее по тестам.
nagual
[root@truenas /mnt/zpool/zhome/max]# dmesg |grep ABYZ da3: <ATA WDC WD5003ABYZ-0 1S03> Fixed Direct Access SPC-4 SCSI device da0: <ATA WDC WD5003ABYZ-0 1S03> Fixed Direct Access SPC-4 SCSI device da1: <ATA WDC WD5003ABYZ-0 0E.1> Fixed Direct Access SPC-4 SCSI device
nagual
[root@truenas /mnt/zpool/zhome/max]# smartctl -a /dev/da0 smartctl 7.1 2019-12-30 r5022 [FreeBSD 12.2-RC3 amd64] (local build) Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org === START OF INFORMATION SECTION === Model Family: Western Digital RE4 Device Model: WDC WD5003ABYZ-011FA0 Serial Number: WD-WMAYP7109404 LU WWN Device Id: 5 0014ee 05906462d Firmware Version: 01.01S03 User Capacity: 500,107,862,016 bytes [500 GB] Sector Size: 512 bytes logical/physical Rotation Rate: 7200 rpm Device is: In smartctl database [for details use: -P show] ATA Version is: ATA8-ACS (minor revision not indicated) SATA Version is: SATA 3.0, 6.0 Gb/s (current: 6.0 Gb/s) Local Time is: Mon Jan 4 16:35:14 2021 EET SMART support is: Available - device has SMART capability. SMART support is: Enabled
nagual
[root@truenas /mnt/zpool/zhome/max]# smartctl -a /dev/da1 smartctl 7.1 2019-12-30 r5022 [FreeBSD 12.2-RC3 amd64] (local build) Copyright (C) 2002-19, Bruce Allen, Christian Franke, www.smartmontools.org === START OF INFORMATION SECTION === Model Family: Western Digital RE4 Device Model: WDC WD5003ABYZ-011FA0 Serial Number: WD-WMAYP7530856 LU WWN Device Id: 0 000000 000000000 Firmware Version: 65.00E.1 User Capacity: 500,107,862,016 bytes [500 GB] Sector Size: 512 bytes logical/physical Rotation Rate: 7200 rpm Device is: In smartctl database [for details use: -P show] ATA Version is: ATA8-ACS (minor revision not indicated) SATA Version is: SATA 2.5, 6.0 Gb/s Local Time is: Mon Jan 4 16:35:32 2021 EET SMART support is: Available - device has SMART capability. SMART support is: Enabled
Valerii
Ребят, извиняюсь за ламерский вопрос. Просто никогда с этим не сталкивался. Есть десктоп с жёстким диском и одним пулом на zfs. Как мне отделить home от всего остального так, чтобы делать слепки состояния и ролбеки, не затрагивая home?
Valerii
сабсет сделать и потом без ключа -r тормошить рутовый сет
Все сабсеты, которые я сделаю, не будут затрагиваться при записи снепшотов и ролбеках?
d
Все сабсеты, которые я сделаю, не будут затрагиваться при записи снепшотов и ролбеках?
у них иерархическая организация будет, так что если специально не просить то да
Valerii
у них иерархическая организация будет, так что если специально не просить то да
И в снепшот они не будут писаться без такого специального запроса?
d
да
d
но я сделал так: rpool/ROOT/debian это / а rpool/ROOT/home это home
d
то есть, они на одном уровне иерархии находятся
Valerii
то есть, они на одном уровне иерархии находятся
А зачем? Если сабсеты все равно на затрагиваются
d
А зачем? Если сабсеты все равно на затрагиваются
в них есть свои сабсеты, так что удобно с ними через -r работать
Valerii
в них есть свои сабсеты, так что удобно с ними через -r работать
А можно, если не сложно, кейс для десктопа описать, когда это может пригодиться? Зачем отделить хомяк я понимаю, а все эти истории с -r - пока не очень
d
или сделать бэкап хомяка с его внутренними сабсетами