JIexa
Спасибо)
Сергей
таким образом, обе команды работали верно
Сергей
ура.
Сергей
но команда с xargs не показывает, что она делает
George
George
ещё есть https://github.com/oetiker/znapzend
George
ещё https://github.com/zrepl/zrepl
Alexandr
Коллеги, подскажите пожалуйста, можно ли к сущесвующесу спешелу докинуть 2й диск чтобы он стал зеркалом 1го ?
Сергей
Alexandr
Alexandr
также как и с log?
Alexandr
понял, спасибо!
Dima
Всем привет!
А напомните пжлст че делать, если в процессе resilver-a диска в raidz2 пуле вылетел и тот "новый" диск (FreeBSD если что), в итоге
NAME STATE READ WRITE CKSUM
disk8 DEGRADED 0 0 0
raidz2-0 DEGRADED 0 0 0
gpt/disk2_23 ONLINE 0 0 0
replacing-6 UNAVAIL 0 0 0
9357287876379815588 REMOVED 0 0 0 was /dev/gpt/disk2_24/old
5612102271103494021 REMOVED 0 0 0 was /dev/gpt/disk2_24
...
Fedor
Dima
Точно нет. Просто диск б\у из старых был, не новый. Его просто контроллер выкинул, не смотрел че там он говорит - наверняка ему конец
Ivan
Dima
Это да. Это другая история. Диск я уже заменил, разметил. Вопрос тут сейчас в том, что сказать zpool , что бы он корректно убрал removed диск, и начал замену
Ivan
https://docs.oracle.com/cd/E19253-01/819-5461/gazgd/index.html
Ivan
лучше даже так:
https://docs.oracle.com/cd/E19253-01/820-0836/gazgd/index.html
Александр
У меня тут фантомные боли в удаленном пуле.
Ivan
ахах, у меня тоже. не выпиливается вообще никак.
Dima
Александр
Так получилось, что оба диска пула (зеркало) были сняты и увезены с выключенной машины без zpool export.
Александр
Теперь этот пул висит в списке, попытка его export завешивает машину через некоторое время - до ресета. destroy я еще не пробовал, но не ожидаю лучшего результата.
Александр
Попробую ночью бутнуть с mfsbsd и перезаписать zpool.cache - других идей нет?
George
Александр
George
Да
как импортированный аж, я правильно понял?
George
zpool.cache скорее всего, да
Dima
я не так давно такой фантомный пул дропал через zpool destroy - учпешно
Александр
Владимир
Доброго дня. А могу ли я использовать 1 NVME накопитель для кешированиячтения записи определённых волюмов на ZFS(RAID1) пуле из двух HDD, и (я так догадываюсь что да) на сколько это хорошо или плохо? И можно ли подобное настроить прям с интерфейса проксмокса?
Олег
Владимир
Олег
Для обзора
Владимир
и после добавления NVME на кеш оно будет юзаться при включении кеша тут?
Владимир
Владимир
какой вообще порядок действий если я хочу заюзать NVME на кеш для определённых VM, вернее будет сказать волюмов
Владимир
и есть ли тут минусы?
Владимир
Спасибо, изучу сегодня. Меня вот ещё терзает мысль, NVME один, что будет когда он исчерпает ресурс), ничего не поломается?)) Про это есть в статье?
Владимир
Там есть ответ на мой вопрос кажется
Владимир
Современные пулы хранения могут пережить потерю кэша или журнала виртуального устройства — хотя они могут потерять небольшое количество грязных данных, если потеряют журнал vdev во время отключения питания или сбоя системы.
Владимир
Алексей
Алексей
Он же лучше
Владимир
чем?
Владимир
А как же мдадм?
Вы знатный троль, я как то писал тут что заюзал mdadm потому что для той задачи он реально подходил лучше и теперь Вы мне это будете напоминать?, я и сейчас повторю что для той задачи и с теми условиями мне лучше mdadm, у меня нет ZFS головного мозга и я не его религиозный фанатик чтобы юзать ZFS в уместных и не уместных местах.
Алексей
Владимир
ashift - я так понимаю нельзя изменить? выставляется при добавлении vdev
Fedor
Лучше вообще о нем не думать и использовать диски одного размера блока всегда и везде
Владимир
а я вот читаю и такпонимаю о нём стоит думать)), у меня как раз наблюдается просадка в производительность на одном NVMe самсунге и походу оно как раз из-за него, а я не понимал в чём прикол
Сергей
Сергей
Владимир
Свойство ashift устанавливается для каждого виртуального устройства vdev, а не для пула, как многие ошибочно думают — и не изменяется после установки.
Сергей
Владимир
И сколько там ашифт?
12 если верно помню, но я пока занмаюсь другим проектом нет времени отвлекаться на тот
Сергей
12 это нормально для ссд
Владимир
В реальном мире такой штраф бьёт по твёрдотельным накопителям Samsung EVO, для которых должен действовать ashift=13, но эти SSD врут о своём размере сектора, и поэтому по умолчанию устанавливается ashift=9. Если опытный системный администратор не изменит этот параметр, то этот SSD работает медленнее обычного магнитного HDD.
Владимир
кстати может там и 9))), я ведь не помню, но я точно не праивл дефолт
Сергей
9 точно плохо для ссд/nvme. 12 хорошо, 13 возможно будет ещё лучше.
Владимир
Сергей
Владимир
я читаю ещё вот это
Владимир
https://netpoint-dc.com/blog/zfs-caching-arc-l2arc-linux/
Владимир
врде тоже годно
Владимир
врде тоже годно
Я вот хочу в звол под контейнер вырубить кеширование в хелпе нашёл
zfs set --help
...
primarycache YES YES all | none | metadata
secondarycache YES YES all | none | metadata
...
Это выключаю и всё?
Олег
Там есть продолжение, но вроде его m1irko ещё не перевёл.
у меня продолжение с потерей таблицы разделов. Не зависит от кэша дисков, проявляется на Ubuntu 14
сделал снапшот, disk cache-none стоял - перезагрузка - потеря раздела, восстановление с снапшота-перезагрузка -все ок))) вот и думаю что за хрень))) Переделываюсь на 20Ubuntu
Ivan
Владимир
Есть #вопрос , а можете дать подходящий тест. Я хочу протестировать NVME на PCI с драйвером который поставился с проксмоксом и потом с драйвером с оф сайта. Можете подсказать как это будет сделать эффективнее? есть мнение что с драйвером с оф сайта задержки будет меньше, кеширование на звол который буду тестировать вырубил.
Олег
Fedor
Врайтбек, наверное?)
Олег
zfs на второй хранилки ext4 в обоих та же история