George
George
так линейноая запись, не ?
в общем у вас метод бенча странный. dd с 64МБ блоком != последовательная запись от приложения, плюс вы вообще io queue depth тут не учитываете
George
если хотите адекватно бенчить - fio
Ivan
https://wiki.archlinux.org/index.php/Solid_state_drive
Ivan
Note: Continuous TRIM is not the most preferred way to issue TRIM commands among the Linux community. For example, Ubuntu enables periodic TRIM by default [5], Debian does not recommend using continuous TRIM [6] and Red Hat recommends using periodic TRIM over using continuous TRIM if feasible. [7]
Ivan
в общем понял. zfs всеравно будет писать меньшими блоками и не всегда последовательно. в таком разе мой днищессд утилизируется полностью
George
Ivan
в ядре есть исключения для некоторых ссд. даже если руками выставить постоянный дискард, ядро этого не сделает, инача ссд быстро зажмурится.
George
Ivan
ммм, тада непонятно. скорость должна быть в 2 с небольшим раза выше.
George
George
George
но и 100% вы с диска не выжмете, это да
Ivan
а как я могу трим делать ? чет не соображу. т.к. обычно трим к точке монтирования привязан
Ivan
fstrim -v -a ничего не делает
Сергей
Ivan
ну мне рекомендуют трим включить )
Ivan
мб zfs сам посылает команды трим ?
George
я вам рекомендовал партицию меньше сделать и место оставить для ссд
Ivan
George
ну это не "включить трим"
George
)
George
ATA Secure Erase можно сделать для ssd
George
это фактически будет discard для неё
Ivan
ок
Ivan
в общем, партиции выравнивать надобно для slog
Ivan
скорость увеличивается
Сергей
вот
сделать дискард - это очистить весь диск вам предложили)
Сергей
blkdiscard /dev/sda
Ivan
чет хз как выгнать ssd из состояния frozen
Ivan
ребуты и выключения не помогают
Ivan
всем доброго дня.
потестировал автозамену диска из hotspare.
но потом остаётся такая картина
Ivan
выгнать лишнюю spare не получается
Ivan
а производительность записи отчего-то упала в 2 раза
Ivan
pool: rpool
state: ONLINE
Сергей
Сергей
так может он ресилверинг делает?
Ivan
zpool remove rpool ata-TOSHIBA_MG04ACA400E_99AOK2JNFJKA
cannot remove ata-TOSHIBA_MG04ACA400E_99AOK2JNFJKA: root pool can not have removed devices, because GRUB does not understand them
Ivan
Ivan
scan: resilvered 54.6G in 0 days 00:04:33 with 0 errors on Thu Jan 16 22:48:45 2020
Ivan
а как вообще менеджить вылетевшие диски ?
Ivan
нет удобной команды для просмотра ?
Сергей
Ivan
хм. для не in use spare работает нормально
Сергей
zpool detach делал?
Ivan
не понимаю почему для этого mirror 3 диска юзается, и что еще хуже - стала тормозить запись.
Сергей
а как выглядел пул до замены?
Ivan
zpool detach делал?
помогло
я руководствовался https://docs.oracle.com/cd/E53394_01/html/E54801/gpegp.html
Ivan
Ivan
вот так выглядело
Ivan
почему spare не автодетачится, когда она не нужна ?
Privetiq
Друзья, #вопрос : есть кластер из 3 нод. На двух ZFS (raid1) на третей LVM(soft raid1). насколько хорошо они будут дружить в LINStor? Стоит ли заморачиваться и заново разметить диски?
Один из серваков стоит под бекапы, второй для elasticsearch третий как продакшн web server на nginx. Еластик на LVM остальные на ZFS. Думал и прод на LVM перевести из-за производительности (имеется 2NVMe диска на проде).
Ivan
Privetiq
На одном 2ссд по 250гб на втором 2nvme по 500гб, третий обычные свалки по 2тб 7200rpm
Ivan
линстор не сможет синхронно реплицироваться при таком зоопарке
Privetiq
мне посути нужно только между двумя нодами (на ссд и nvme дисках) держать реплику. Третий просто ежедневно на кроне создает потихоничку бекапчик в час ночи, и хранит у себя на всякий случай.
Vladislav
Имею сервер:
# camcontrol devlist
<HGST HUH721010ALE600 LHGNT384> at scbus0 target 0 lun 0 (ada0,pass0)
<HGST HUH721010ALE600 LHGNT384> at scbus1 target 0 lun 0 (ada1,pass1)
<HGST HUH721010ALE600 LHGNT384> at scbus2 target 0 lun 0 (ada2,pass2)
<HGST HUH721010ALE600 LHGNT384> at scbus3 target 0 lun 0 (ada3,pass3)
<AHCI SGPIO Enclosure 2.00 0001> at scbus6 target 0 lun 0 (ses0,pass4)
# zpool status zroot
pool: zroot
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
zroot ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
gpt/system-ada0 ONLINE 0 0 0
gpt/system-ada1 ONLINE 0 0 0
gpt/system-ada2 ONLINE 0 0 0
gpt/system-ada3 ONLINE 0 0 0
errors: No known data errorsКак склонировать пул zroot на идентичное железо?
Vladislav
на ум приходит только:
1) риск режим целевой системы
2) копирование по ssh через dd раздела gpt/system-ada0 на первый диск нового сервера
Vladislav
далее импорт пула zroot, клонирование нового раздела на остальные три диска и добавление их в пул zroot
Мих
дык zfs send/recieve?
Мих
https://128bit.io/2010/07/23/fun-with-zfs-send-and-receive/
Мих
я так 4 тера скопировал не так давно
Мих
Делаешь снапшот, да сендишь его куда надо
Мих
Vladislav
Куда копировать? на целевой системы диски НЕ размечены!
George
Vladislav
Да.
George
На принимающей стороне rescue или live cd поднять с zfs, создать новый пул, снапшотами zfs send recv
George
Dd всех дисков конечно тоже сработает:)
Vladislav
Vladislav
George
Но zfs recv будет лучше тем, что данные заново будут разложены с меньшей фрагментацией
George
Vladislav
1) Создание скелета разделов (возможно по SSH удасться)
2) клонирование только пула ZFS (без данных)
George
Сергей
Vladislav
Сергей
вопрос звучал "Как склонировать пул zroot на идентичное железо?"