Fedor
Транзакции последние потеряешь
Fedor
В случае чего совсем уж страшного откатишься на последнюю успешную
Alexander
Про fat32 в каком-то чатике писали, что нет надежнее FS :)
Fedor
Fedor
Опять правишь сообщения - все просили этого не делать.
Давай-ка во флуд с такими вопросами.
Второе предупреждение.
Alexander
Василий
и это у меня свет выключался раз 5 от силы за несколько лет.
тоже самое и с базой может стать
Василий
Василий
по крайней мере при синк дисейблед
Василий
Василий
кстати, по поовду зфс и рейд. тестирую зфс по верх хранилки, уже почти год. правда пока ребутов не было, но полет нормальный.
George
George
по идее если zed активирован, то должно сработать
Alexander
Alexander
Никто не обращал внимания, что ZFS v 0.8.6 при репликации иногда начинает что-то активно писать на приемнике причем только на один диск зеркала, утилизируя его почти на 100%, и при этом передача данных с источника временно замирает на несколько минут? Интересно, с чем это связано?
На v 0.7.12 я такого не замечал.
Combot
Neritan Leka has been banned! Reason: CAS ban.
Combot
Neritan Leka has been banned! Reason: CAS ban.
Shestakow
Всем привет, прошу не кидать какахами,только изучаю материал,подскажите пожалуйста , имеется ли какой более менее свежий самочутель- справочник ,бест практис по open zfc с материалом на русском? Может быть книга по теоретической части. Поделитесь пожалуйста
Sergey
Shestakow
Спасибо
Василий
Autumn
Джентльмены, кто делал тесты draid vs raidz в разрезе производительности и иопсов в штатном режиме? Есть потеря производительности?
Autumn
Или draid=raidz?
A1EF
какой? а тот тут синоложи ее по умолчанию предлагает
Подробностей не вспомню — несколько лет назад дело было. У меня был собран raid1 средствами btrfs. Я ожидал, что смерть одного диска мне не страшна. В реальности файловая система перестала читаться и монтироваться, не помню уже, удалось ли мне данные вытащить
Alexander
A1EF
Это был raid1 — всего два диска и было, один сдох
A1EF
Возможно, "это руки такие", возможно btrfs с тех пор стала лучше и веселее. Но впечатление было испорчено — я теперь не суюсь её использовать
A1EF
Нет, это mirror в ZFS
A1EF
Facebook в проде используют, вот они пусть с btrfs и танцуют. А я пас. Мой выбор — ZFS, пусть и не совместим лицензией с ядром
A1EF
Еще пока? А нужно? 👀
Alexander
Еще пока? А нужно? 👀
Хотелось бы когда-нибудь попробовать для производительного прода, нетерпимого к downtime, мол этакая rock solid ZFS. Если лажанет не по вине железа, то ну ее нафик, хотя как определить, наверно ни в каждом случае это возможно кроме уж совсем очевидных ...
Для online бэкапов кроме ZOL я даже ничего другого не рассматриваю.
Alexander
Кстати интересно было бы узнать у Василия @gjabu2_2, были ли в его практике случаи, когда ZFS on Solaris вела бы себя нестабильно, не так как описано в доке? Например на приемнике, чтобы не получалось повторно реплицировать dataset из-за того, что он отвис после прерывания прошлой репликации?
Fedor
Alexander
Fedor
Fedor
Просто чем сложнее продукт, тем сложнее делать вещи наобум без понимания матчасти.
Alexander
Является :)
И почему же тогда на приемнике ZOL иногда отвисает репликация даже если кильнуть сессию с "zfs receive ..." ?
Fedor
опиши условия и хронику того, как это произошло
Alexander
Просто чем сложнее продукт, тем сложнее делать вещи наобум без понимания матчасти.
Ctrl+C на источнике "zfs send ..." - это наобум?
Репликация выглядит примерно так:
zfs send -I DS@S1 DS@S2 | pv | ssh host "zfs receive XXX"
Прерываю репликацию на источнике, на приемнике по прежнему висит сессия с receive, особенно если после потери связи (выключение интерфейса по таймеру например или выдергивание кабеля) или даже предположительно Ctrl+C на источнике.
Прибиваю на приемнике shell сессию с receive по kill -s 9, она вроде бы даже и невсегда прибивается.
Далее пытаюсь сделать ssh host "zfs rollback XXX@S1", вроде бы даже проходит.
Дальнейшие попытки репликации сообщают, что XXX занят.
Даже zpool export XXX_pool говорит, что пул занят, пишите в спортлото.
Как на хосте приемнике - host датасет XXX вернуть в исходное состояние, готовое к репликации с источником ?
ессно БЕЗ ребута.
Fedor
как только опишешь условия и хронику, можно будет начать разбираться
Fedor
с какой целью ты прибил начавшуюся репликацию?
Alexander
Другой пример, До версии 0.8.4x ZOL 0.7.12 не смогла отресилверить часть зеркала, пытался раза 3 (это почти неделя времени).
Потом сделал detach и сразу же attach, т.е. пересоздание зеркала с нуля (впрочем и ресилверинг тоже почему-то шел раньше полный больше суток), и что вы думаете, оно опять не шмогло ...
Тут мое терпение лопнуло, и я, почитав багрепорты, проапгредил сервер до 0.8.4.
А если бы диск помер на нагруженном проде, который должен быть всегда аптайм?
Именно поэтому я боюсь сейчас менять v0.8.6 на что-то другое.
Но даже с вышеописанными багами ZFS была непревзойденно надежнее для моих кейсов хранения данных чем любая другая доступная мне FS, пользуюсь ZOL уже с 2012 года.
Fedor
https://openzfs.github.io/openzfs-docs/man/8/zfs-send.8.html
zfs send [-Penv] -t receive_resume_token
Creates a send stream which resumes an interrupted receive. The receive_resume_token is the value of this property on the filesystem or volume that was being received into. See the documentation for zfs receive -s for more details.
Fedor
Другой пример, До версии 0.8.4x ZOL 0.7.12 не смогла отресилверить часть зеркала, пытался раза 3 (это почти неделя времени).
Потом сделал detach и сразу же attach, т.е. пересоздание зеркала с нуля (впрочем и ресилверинг тоже почему-то шел раньше полный больше суток), и что вы думаете, оно опять не шмогло ...
Тут мое терпение лопнуло, и я, почитав багрепорты, проапгредил сервер до 0.8.4.
А если бы диск помер на нагруженном проде, который должен быть всегда аптайм?
Именно поэтому я боюсь сейчас менять v0.8.6 на что-то другое.
Но даже с вышеописанными багами ZFS была непревзойденно надежнее для моих кейсов хранения данных чем любая другая доступная мне FS, пользуюсь ZOL уже с 2012 года.
медленный ресильвер это норма, главное чтобы шёл.
Fedor
Другой пример, До версии 0.8.4x ZOL 0.7.12 не смогла отресилверить часть зеркала, пытался раза 3 (это почти неделя времени).
Потом сделал detach и сразу же attach, т.е. пересоздание зеркала с нуля (впрочем и ресилверинг тоже почему-то шел раньше полный больше суток), и что вы думаете, оно опять не шмогло ...
Тут мое терпение лопнуло, и я, почитав багрепорты, проапгредил сервер до 0.8.4.
А если бы диск помер на нагруженном проде, который должен быть всегда аптайм?
Именно поэтому я боюсь сейчас менять v0.8.6 на что-то другое.
Но даже с вышеописанными багами ZFS была непревзойденно надежнее для моих кейсов хранения данных чем любая другая доступная мне FS, пользуюсь ZOL уже с 2012 года.
репорты и апгрейд проблему решили?
если да - вот и ответ.
а так - всегда используй стабильные версии софта
Fedor
я до сих пор на 0.6 сижу, радуюсь и в ус не дую
Alexander
медленный ресильвер это норма, главное чтобы шёл.
В 0.7.12 он был не просто медленный, но еще и бесмыссленный и бесполезный, его можно было бы повторять по кругу ежедневно хоть год подряд, пока не сдохнут оставшиеся диски в деградированном пуле.
А в 0.8.6 по сравнению с 0.7.12 ресилверинг просто сверхскоростной и пул не разваливается на части.
Fedor
учту
Fedor
пул и так не разваливался на части у меня
Alexander
Fedor
ну вот и всё.
Fedor
в общем - не дочитал документацию.
Fedor
предсказуемо
Alexander
предсказуемо
И почему же на 0.8.6 нет такого косячины?
Fedor
там много условий влияет, не только код фс.
Ivan
Fedor
у меня ресильвер недели полторы шёл например. но прошёл же. :)
Alexander
Ivan
Fedor
о как. забавно
Fedor
Fedor
ни разу не видел на своих системах чтобы не проходил
Alexander
там он валился с ошибкой и начинался по новой
У меня не валился, проходил на 100 с лишним процентов и потом опять по новой ...
Хорошо, что это был домашний бэкап сервер без больших претензий по SLA.
Но даже меня эта проблема успела изрядно достать за целую неделю попыток вывода пула из деградировавшего состояния.
Fedor
что солярис зфс, что зол, что иллюмос
Fedor
Основной иллюмос как раз у меня