Artem
а это на zfs get all
Art
спасибо так, и что же, скажем каталоги /mediapool и /cloudpool - пустые?
Artem
спасибо так, и что же, скажем каталоги /mediapool и /cloudpool - пустые?
cloudpool не менялся и в обсуждение не входит. Разговор только про mediapool Сам каталог не пустой, имеет подкаталоги, но вот они пусты
Artem
Art
cloudpool не менялся и в обсуждение не входит. Разговор только про mediapool Сам каталог не пустой, имеет подкаталоги, но вот они пусты
ну это логично, эти файлосистемы (/mediapool/book, /mediapool/media и прочие - пусты) А вот в коревой чего-то есть, и сейчас мы докопаемся что именно покажите ещё выводы zfs list -t snapshot и zfs list -o space
Artem
George
вангую что данные лежат в корневом датасете, а дочерние датасеты пустые и до этого не монтировались, а сейчас смонтировались
George
попробуйте отмонтировать один
George
но датасеты могут быть примонтированы в какую-то директорию
Artem
попробуйте отмонтировать один
что-то типа zfs unmount /mediapool/book
Art
там ещё лежит мой каталог mytmp - но его нет в пуле
и теперь ls -lha /mediapool/* а лучше даже du -sh /mediapool/*, но будет долго
George
А так можно?
можно то можно, только он всё отмонтирует, указывайте просто конкретные датасеты
George
ну так теперь содержимое смотрите
Artem
кого???
George
зачем рутовый то датасет отмонтировать
George
кого???
данные свои в директориях смотрите)))
George
они лежат как раз на рутовом датасете
Artem
ну так теперь содержимое смотрите
так, а теперь можно объяснить...??? Я то замену провёл правильно?
Artem
Появилось
George
так, а теперь можно объяснить...??? Я то замену провёл правильно?
ну без конкретных команд подтвердить нельзя)) но замена диска без пересоздания пула на содержимое пула (если он цел) не влияет
George
вы когда то создали датасетов вложенных, но не примонтировали их, и данные на рутовый по факту попадали
Artem
так все датасеты были примонтированы....
George
так все датасеты были примонтированы....
ну это вы так считаете, а данные почему-то лежат на рутовом в итоге
George
как бы грубо это не звучало
Artem
так, тогда есть ли методичка или просто мануальчик, а то документация с гугл переводчиком у меня плохо читается?
George
Ок, пойду самообразовываться.
если что - пул можно на файликах вместо диска создавать и тренироваться
Artem
Спасибо большое, круто, что есть телега с таким чатом
Artem
если что - пул можно на файликах вместо диска создавать и тренироваться
Да я тренировался, года 3 назад, а потом всё успешно заросло пылью и забылось, прям как сервак). Спасибо)
Arseniy
А у меня вопрос чисто теоретический: учитывая структуру работы с девайсами, я искренне не понимаю, почему при страйпе из двух девайсов скорость чтения практически такая же, как и при мирроре? Почему она не удваивается?) Хотя скорость записи увеличивается, да Инфа отсюда https://calomel.org/zfs_raid_speed_capacity.html
George
А у меня вопрос чисто теоретический: учитывая структуру работы с девайсами, я искренне не понимаю, почему при страйпе из двух девайсов скорость чтения практически такая же, как и при мирроре? Почему она не удваивается?) Хотя скорость записи увеличивается, да Инфа отсюда https://calomel.org/zfs_raid_speed_capacity.html
Потому что (вангую) выбранная методика тестирования читает в 1 поток, а чтение синхронное (следующий блок запросится только после предыдущего), а на страйпе 1 блок хранится только на 1 диске. А вот запись скорее всего асинхронно тестится, и может утилизировать оба диска
George
В общем любые бенчмарки начинаются с проработки понимания методики тестирования
George
префетч все еще по умолчанию отключен?
Всё ещё? Он по дефолту всегда включен был, но он не на всех кейсах поможет, и требует primarycache=all пока (а вот в мастер уже влили патч, где и на primarycache=metadata будет нормально работать)
Aba
А у меня вопрос чисто теоретический: учитывая структуру работы с девайсами, я искренне не понимаю, почему при страйпе из двух девайсов скорость чтения практически такая же, как и при мирроре? Почему она не удваивается?) Хотя скорость записи увеличивается, да Инфа отсюда https://calomel.org/zfs_raid_speed_capacity.html
Тесты странные у него, да и старые. Тоже задался подобными вопросами по результатам этих тестов, ща поставил свои тесты делаться, правда только на 6 дисках, да и методику тестирования чуть подкорректировать нужно будет.
Arseniy
Я тут просто выбираю как мне быть, у меня 2 ссд 1Тб сата, скорость 530. Сервер для дома. С одной стороны, зеркало - это надёжность. Но ссд достаточно долговечны сами по себе (хотя все бывает). Планирую размещать на этом пуле все приложения трунаса и ВМ. И тут встаёт выбор: Сделать миррор и не знать проблем, или страйп и (теоретически) повысить скорость работы ВМ, заодно подрубить оставшееся место по iscsi на локальный ПК в сети и юзать как файлопомойку, периодически выполняя бэкап. Если прироста скорости нет, как у мужика в тесте, то оно мне и не надо, миррор надёжнее. А если есть, то я б выбрал страйп+частые бэкапы нужных областей
George
если не знаете ещё нужных размеров каждого - оставьте просто неразмеченное пространство на дисках, чтобы их можно было потом подцепить к нужному пулу
Arseniy
часть - в миррор, часть - страйпов, в 2 пула. Я так дома делаю
Я как то не подумал про такой вариант... То есть, я бью каждый ссд на партиции и две делаю в миррор, две в страйп?
Arseniy
Через zvol?
George
по моей практике - просто будьте готовы пересоздать как поймёте свои надобности полностью
George
Через zvol?
нет конечно
George
просто сырые партиции руками нарежьте
Arseniy
Ок
George
и их в пулы подавайте при создании
George
https://openzfs.github.io/openzfs-docs/Performance%20and%20Tuning/Module%20Parameters.html?highlight=prefetch#zfs-prefetch-disable
Владимир
а какая команда удаления vdev из zfs пула?
Владимир
или мне надо удалить оба девайса по отдельности если вдев это миррор
Ivan
если vdev удалить, то данные на пуле будут повреждены
Владимир
в общем я понял где я накосячил, я создал вдев с другим ашифт и теперь я не могу его удалить....
Владимир
ррррр
Владимир
это уже никак не исправить да?))
Владимир
Владимир
при удалении vdev данные распределятся по другим vdev
Владимир
ну конечно у всех vdev должен быть одинаковый ашифт и там должны быть только mirror
Владимир
никаких raidz
Владимир
ксли кто знает как поменять ашифт на вдеве пишите))
Владимир
но походу никак))
Art
если vdev удалить, то данные на пуле будут повреждены
Если из вдевов построен зеркальный пул, то он должен пережить потерю одного)
Art
в общем я понял где я накосячил, я создал вдев с другим ашифт и теперь я не могу его удалить....
Я даже не знал, что в принципе возможно добавить в пул вдев с другим ашифтом) Как ты это провернул?)
Art
а какая команда удаления vdev из zfs пула?
zpool remove poolname vdevname Я так на стенде в виртуалке удалял
Aba
но походу никак))
все верно, только пересозданием
Владимир
zpool remove poolname vdevname Я так на стенде в виртуалке удалял
да, я тоже, но не удаляет из-за другого ашифта
nikolay
Я даже не знал, что в принципе возможно добавить в пул вдев с другим ашифтом) Как ты это провернул?)
скорее там не ashift, а sector size другой, если конечно автор не задавал ashift явно