Fedor
На других дисках
George
Такое работает. Я так один раз серверу под нагрузкой менял директории.
да-да, просто время более реалистичное подсказываю
Fedor
Лучше всегда закладывать, да
Fedor
Может вдруг он решит л2арк сбросить
Alexander
Сань, как в опенсорсе посмотреть кто на зфс файл мучает?
Может быть в QPS? https://blog.desdelinux.net/en/qps-monitor-sistema-qt/
Alexander
Он показывает real time для каждого процесса, сколько всего итого байт прочитано и записано, можно отсортировать по колонке и найти, кто больше всех.
Alexander
При чем тут RaidZ к RaidD?
https://klarasystems.com/articles/openzfs-draid-finally/ -dRAID[<parity>][:<data>d][:<children>c][:<spares>s] -[s] spares: The number of disk areas to mix in as distributed spares. No spares are created by default, a maximum of four are welcome. Each spare will remove a fraction of space from every disk.
Alexander
Я пока нуб в dRAID, в нем разве нельзя автоматически добавлять новые диски при выходе из строя старых?
Alexander
Вчера установил ZFS 0.8.6 на аналог Debian v9 из пакетов бэкпортов v11 для Debian v10, даже не из сорцов. Mission possible :) Теперь можно оставаться на девятке еще достаточно долго. Devuan v2 ASCII - аналог Debian v9 Stretch, очень стабильная сборка. На managed Кубер воркерах Linode еще пару месяцев назад использовал Debian v9, возможно и сейчас все еще его. Серверный дистрибутив, проверенный электроникой, в котором ничего не ломается само по себе. Объясните мне, зачем вообще нужен RedHat кроме как в качестве запускалки проприетарных монстров типа Oracle Database с бумажками юридического характера для защиты своей филейной части при общении с начальством?
Δαρθ
ну и вообще, zfs это же ядро + утилитки, утилитки можно свежие собрать, ядро тоже, а дистриб оставить старый
Alexander
А чо не beowulf уже?
А зачем на хосте? В виртуалках у меня есть и Chimaera и Alpine:latest.
Alexander
ну и вообще, zfs это же ядро + утилитки, утилитки можно свежие собрать, ядро тоже, а дистриб оставить старый
Проблема в том, что libc6 дистра устаревает для утилиток. Приходится заменять его из более нового (а это целый вечер приключений с зависимостями), - это если ставить из пакетов. Собрать userspace из сорцов наверно можно и на старом libc6.
Василий
Может быть в QPS? https://blog.desdelinux.net/en/qps-monitor-sistema-qt/
Не нашёл где оно умеет файлы мониторить
Nick
А кто-то дрейд уже пробовал из 2.1? Как оно?
Alexander
Не нашёл где оно умеет файлы мониторить
Не отдельные файлы, но хотя бы можно увидеть какой процесс накопительно много читает и пишет или это тоже самое, что iotop, тогда sorry :)
Sergey
Всем доброго времени суток. Подскажите пож. еще такой вопрос. Хотим triple mirror на 20 дисков 8тб sas 7200, без отдельных дисков под метаданные. Сейчас в наличии 4ре. Можно ли прямо сейчас собирать пул, а новые диски добавлять по мере поступления? При добавлении нового диска в такой сетап, блоки данных со старых дисков будут перемещены на новые или останутся как есть?
Василий
Не отдельные файлы, но хотя бы можно увидеть какой процесс накопительно много читает и пишет или это тоже самое, что iotop, тогда sorry :)
Блин. Мне же не надо что попало. Мне надо именно файлы. Бывают непонятные нагрузки, которых в сфере не видн
Sergey
тройное зеркало
Василий
Будет стрип тройных зеркал, правильно?
Василий
Добавлять можно, останутся как есть
Василий
10й рейд у зфс не честный, поэтому балансировки того что есть не будет
George
10й рейд у зфс не честный, поэтому балансировки того что есть не будет
Что такое "не честный рейд"? и при чём тут балансировка?
George
Не честный рейд 10
Ну что такое "не честный"?
Василий
Там не строгое разделение по дискам
Autumn
10й рейд у зфс не честный, поэтому балансировки того что есть не будет
Ну вот да, что такое "нечестный", ну и если под балансировкой подразумевается равномерное распределение данных по рейду, то почему не будет? Вот пример с ребалансировкой на страйпед миррорах: https://jrs-s.net/2020/03/10/rebalancing-data-on-zfs-mirrors/
George
А запись сама отбалансирует, просто она будет идти в более пустые vdevs сначала
Autumn
Не. Пропорционально свободному месту
пропорционально размеру дисков, если один диск 8 ТБ второй 4 ТБ, но 2 части будут записаны на первый и одна на второй, на сколько я знаю.
riv
ZOL не поддерживает удаление/выталкивание из пула raidz vdev.
Уточню, речь идет про top-level vdev. Т.е. если первый vdev mirror, остальные могут быть любые. но я не проверял, так в доках написано.
nikolay
Нет. Свободному месту
в случае расширения пула через добавление новых vdev новая запись пойдет только на новые vdev, возможностей для ребаланса, как написал Георгий, нет. аллокатор работает по свободному месту в этом случае. а вот если добавлять диск в vdev - тут надо читать комментарии к исходникам openzfs, у меня не было таких кейсов и я не изучал работу механизма аллокации в этом случае
Sergey
Еще ткой вопрос к сообществу: Был создан пул raidz2 на 4ре диска по 256Мб Затем к этому пулу добавлен еще один raidz2 на 4ре диска по 256Мб Насколько понимаю на выходе должен был создаться stripe (аля raid 0) из двух raidz2. Это так? Если да, то куда делось место на выходе команды zfs list...
nikolay
да, страйп, zfs list показывает примерный объём с учётом parity, а zpool list - общий raw размер (без parity)
мне кажется что нужна доп. команда zpool что-то, чтобы использовался весь объем после добавления
George
Там за счёт 256мб "дисков" могут быть спецэффекты, если это именно мегабайты
Sergey
Там за счёт 256мб "дисков" могут быть спецэффекты, если это именно мегабайты
именно мегабайты. Сoзданые через dd и превращенные в /dev/loop
Василий
Минус 4
nikolay
Минус 4
да, -4, raidz2 же) я отнимаю -2))
Василий
да, -4, raidz2 же) я отнимаю -2))
Так два рейдз2 в стрипе
nikolay
Так два рейдз2 в стрипе
ну бывает, мозг от жары начинает барахлить)
George
именно мегабайты. Сoзданые через dd и превращенные в /dev/loop
ну всё верно, -4 диска на parity и другие резервирования, итого чуть меньше 50% от объёма, всё ок. На дисках нормального размера будет ещё ближе к 50%
Δαρθ
именно мегабайты. Сoзданые через dd и превращенные в /dev/loop
вроде можно без лупов, сразу файлы добавлять
Василий
Полный путь файла вместо диска
Δαρθ
в линухе тоже. я так raidz2 делал сначала из 2 дисков и 2 образов, потом образы нах и в degraded режиме
Алексей
Ребята всем привет. у меня в зфс постоянно пишет со скоростью 600мб/сек не прекращаясь ни на секунду заметно отжирают проца 30% процессы txg_sync txg_sync kthreadd и еще много маленьких процессов z_wr_iss по 6-8% жрут у меня виртуальный пул в виде файла размером 100гб который лежит на обычном nvme форматированном в ext4 настройки зфс следущие: zfs set sync=disabled containers zfs set atime=off containers zfs set compression=lz4 containers zfs set dedup=on containers zfs set primarycache=none containers zfs set secondarycache=none containers zfs set recordsize=128K containers виртуальные машины использующеие датасет выключены, скраб не запущен. (да и в любом случае он должен был завершиться за несколько секунд) а у меня константно жрёт тбв... чем может быть вызывано такое поведение? куда копнуть?
Алексей
lsof пусто
Алексей
зпул статус No known data errors
Алексей
нет
Алексей
там вообще ничего нет, это тупо голый сервак
Алексей
три контрейнера и вот смотрю чтото жрёт не всебя
Алексей
начал разбираться и не знаю куда копать
Алексей
Ivan
zfs 2.0.4 ? там ничего не свопится ?
Алексей
своп отключен. zfs-2.0.4-pve1
Алексей
arc?
выключен
Алексей
и примари и секондари
Алексей
удалять со скоростью 600мб сек там просто нечего
George
zpool iostat тоже ничего не показывают?
Алексей
Алексей
zpool iostat тоже ничего не показывают?
покащывает запись 600 мб сек
George
я уже хост ребутнуть
ну если импортнёте то оно не сбросится пока не почистит