Fedor
Попробуйте в ридонли в режиме восстановления подмонтировать и слить данные, потом пересоздать уже с учетом вмваре
George
На этом же хосте куча других вм с дисками вм и на них
просто я на своём опыте говорю, что на рабочем нормальном железе zfs всегда переживёт паверлосс, я увлекаюсь этим иногда лично)))
Fedor
Хорошей практикой считается проводить учения 😁😁😁
George
а вот при переразгоне ОЗУ (без ecc) я ловил, что вся система начинает ходить ходуном и падать в панику, ибо данные уже в каше
Max
Много тут в итоге если, не голое железо, к сожалению
George
Много тут в итоге если, не голое железо, к сожалению
Увы. Можно ещё проверить версии ядра, на zfs ловили год-два назад баг в mq шедулерах ядра
Fedor
Тут вроде дериватив Соляриса же?
Max
В общем спасибо, серебрянной пули в моем случае никакой нет походу дела, кроме как переехать на норм железо. Но вот про такой kernel panic при маунте много инф разной в инете и на голом железе без виртуализации в том числе.
Max
Нет, тут фряха
Fedor
Опа
Fedor
А какой стек?
Fedor
Зфс
George
Нет, тут фряха
ради интереса можно попробовать ZoL 0.8.3 свеженький
Max
Версия 5000
Fedor
Эх свежааак
Fedor
Я все на 7.
Fedor
Трим кстати для л2арк научился?
George
В мастер только-только персистентный л2арк залили кстати
Fedor
😁👌
George
Учат как раз
Это тоже скоро будет
Fedor
Растеть
Max
У меня диски ssd, так что не использую l2arc
Max
А в моем случае primarycache лучше none?
Fedor
Кстати, действительно, вспомнил. По признакам вмваре действительно не всегда записывает данные, хотя рапортует, что записала(это очень критично для зфс)
Max
Правильно понимаю?
Fedor
Не.
Fedor
Тут нижележащая проблема
Fedor
Зфс всегда должен быть в курсе того, что было записано и когда. Отложенная запись недопустима.
Max
По умолчанию primarycache=default ставит на пул, можно выставить значения all none metadata
Fedor
Где-то по пути что-то теряется
Max
Да
Fedor
У данной проблеме не имеет отношения
Max
Ясн
Fedor
Покопай все слои, в общем
George
А в моем случае primarycache лучше none?
нет, зачем? это arc в озу отключается вообще
George
минимум metadata, а если есть озу (лучше чтобы было) - all
Vladislav
Когда будете использовать новые винты вспомните это: https://habr.com/ru/post/497900/
𝕋𝕒𝕘𝕚𝕣𝔾𝕚
читайте https://www.delphix.com/blog/delphix-engineering/zfs-raidz-stripe-width-or-how-i-learned-stop-worrying-and-love-raidz
Вот бы по-русский всё это? Есть может статья на отечественном языке про ашифты и волблоксайзы? 🧐
Сергей
Вот бы по-русский всё это? Есть может статья на отечественном языке про ашифты и волблоксайзы? 🧐
А вы спрашивайте. Тут в истории группы уже обсуждались вопросы и про ашифт и про размер блока. Тут читали? https://habr.com/ru/post/314506/
George
Вот бы по-русский всё это? Есть может статья на отечественном языке про ашифты и волблоксайзы? 🧐
Увы, реалии - в айти без инглиша нельзя, первоисточник там, разница в количестве несоизмерима
Sergey
Да даже маны и документация чего стоят) не говоря об описании новых фич и их доков, багов, уязвимостей
𝕋𝕒𝕘𝕚𝕣𝔾𝕚
Да вот маны даются легко, Инглишь на высоком уровне. Но вот когда сокращения и формулы и ещё разные специальные фразеологизмы - смысл не даётся
George
Там на ту же статью ссыль даётся
тащемта это моя статья, я везде эту ссыль и даю 😂
𝕋𝕒𝕘𝕚𝕣𝔾𝕚
Ну значит тебе и переводить
Fedor
Самое веселье - это диалекты английского
Vladislav
или сленг?
Anonymous
ZFS пул был собран из raidz? гигабит на запись получался? На чтение пару гигабит реально?
Нет, зачем всюду рейды пихать. Рейд был на уровне глюстера
Anonymous
Вопрос: почему добавил диск, сделал пул на нем и он пропадает после ребута? Приходится импорт делать
George
Вопрос: почему добавил диск, сделал пул на нем и он пропадает после ребута? Приходится импорт делать
потому что у тебя в системе никто при ребуте импорт не делает. Смотря от дистра и версии пакетов, можешь поискать таргеты в systemd нужные
DaySandBox
Message from Nancy deleted. Reason: external link (?)
tmf
#проблема люди добрые, встречался кто-нибудь с таким? делаю ssh fromhost zfs send -R zpool/zvol01@snap1 | pv -W -L 15m | zfs recv -d zpool под конец получаю такое: cannot receive new filesystem stream: out of space volsize 113ГБ, а в целевом zpool перед приемом 300ГБ+
Roman
а что такое pv?
рисовалка прогресс бара ну или ограничитель скорости передачи данных, там по разному можно
tmf
volsize 113ГБ, а в целевом zpool перед приемом 300ГБ+
Сергей
volsize 113ГБ, а в целевом zpool перед приемом 300ГБ+
никаких квот нет? эти 113 не с учётом компрессии? zfs get all для обоих датасетов сравните
tmf
в целевом zpool он так и не появился =))
tmf
или про какие это датасеты?
tmf
у меня zvol-ы же
Сергей
в целевом zpool он так и не появился =))
ну так на целевом сделать zfs get all zpool, ведь вы туда импортируете
tmf
компрессии нет
Сергей
и вам точно нужен не сам снапшот, а полностью всю иерархию zvol? (-R)
tmf
все параметры zfs для zpool-ов стандартные
Сергей
а покажите zfs list -t all -o type,name,used,avail,compressratio для той части где ваш исходный zvol01
George
#проблема люди добрые, встречался кто-нибудь с таким? делаю ssh fromhost zfs send -R zpool/zvol01@snap1 | pv -W -L 15m | zfs recv -d zpool под конец получаю такое: cannot receive new filesystem stream: out of space volsize 113ГБ, а в целевом zpool перед приемом 300ГБ+
Проверяйте почему места не хватает, мб у вас на приёмнике raidz который даст оверхед хороший, а мб вы sparse топ передаёте а на приемной стороне он с резервированием создаётся
George
Zfs list , zfs get all на том покажите, zpool list на оба пула
tmf
tmf
кмк, репликация тут лишняя с одним-то снапшотом, и просто стрим прилетит без проблем