Fedor
Транзакции последние потеряешь
Fedor
В случае чего совсем уж страшного откатишься на последнюю успешную
Alexander
Про fat32 в каком-то чатике писали, что нет надежнее FS :)
Fedor
Опять правишь сообщения - все просили этого не делать. Давай-ка во флуд с такими вопросами. Второе предупреждение.
Alexander
На твоём форуме, наверное?)
А вспомнил, в слаковарном.
Alexander
Я такого не писал. Не надо вот это фантазий
Наверно перепутал с кем-то, прошу прощения в таком случае.
Василий
Нажатие reset и выдергивание питания Solaris переносит под нагрузкой нисколько не хуже ZOL ?
он да, линухи которые внутри - матреяться до полного падения один раз. синк дисаблед, это дома
Василий
Про fat32 в каком-то чатике писали, что нет надежнее FS :)
ее надежность базируется на том что ее руками из под обломков собрать можно
Alexander
ее надежность базируется на том что ее руками из под обломков собрать можно
И на том, что она на первый взгляд обычно выглядит целой, хотя в ней уже и собирать нечего из под обломков.
Василий
Линухи внутри, они ведь наверно на extX ?
да, но это ответ на вопрос про синк дисейблед и базу туда, что с ней станется. вот ext4 тоже журналируемая, а раз не поднялась
Василий
и это у меня свет выключался раз 5 от силы за несколько лет. тоже самое и с базой может стать
Alexander
и это у меня свет выключался раз 5 от силы за несколько лет. тоже самое и с базой может стать
У базы обычно есть еще и второй шанс из бэкапов и архивных логов. Но СУБД СУБД рознь, маловероятно, что Db2 бы потребовался второй шанс. Хотя с другой стороны все СУБД обычно подразумевают честную синхронизацию, а sync=disabled - это для них нечто совершенно за рамками предусмотренного.
Василий
по крайней мере при синк дисейблед
Alexander
не важно. речь о том, что зфс не гарантирует, что флаш будет делать запись именно в той последовательности, в которой данные накапливались
Архивные логи обычно уходят вообще на другое хранилище, как и предварительный бэкап. Им без разницы, что там случится с сервером БД, хоть он взорвется и разлетится на мелкие кусочки, база все равно поднимется :)
Василий
кстати, по поовду зфс и рейд. тестирую зфс по верх хранилки, уже почти год. правда пока ребутов не было, но полет нормальный.
Alexander
просто тут ходило мнение (твое?) что "ну потеряю 5 секунд". а на практике, можно получить не консистентую базу
Надо ссылку на обсуждение, мы потом повторно перетирали это с тобой, и я обозначил дополнения к первому. А про 5 секунд в контексте sync=disabled - это в корне неверно IMHO по крайне мере без перманентной архивации логов или синхронной репликации на другой честный сервер СУБД.
George
по идее если zed активирован, то должно сработать
Alexander
Alexander
Никто не обращал внимания, что ZFS v 0.8.6 при репликации иногда начинает что-то активно писать на приемнике причем только на один диск зеркала, утилизируя его почти на 100%, и при этом передача данных с источника временно замирает на несколько минут? Интересно, с чем это связано? На v 0.7.12 я такого не замечал.
Combot
Neritan Leka has been banned! Reason: CAS ban.
Combot
Neritan Leka has been banned! Reason: CAS ban.
Shestakow
Всем привет, прошу не кидать какахами,только изучаю материал,подскажите пожалуйста , имеется ли какой более менее свежий самочутель- справочник ,бест практис по open zfc с материалом на русском? Может быть книга по теоретической части. Поделитесь пожалуйста
Shestakow
Спасибо
Autumn
Джентльмены, кто делал тесты draid vs raidz в разрезе производительности и иопсов в штатном режиме? Есть потеря производительности?
Autumn
Или draid=raidz?
A1EF
какой? а тот тут синоложи ее по умолчанию предлагает
Подробностей не вспомню — несколько лет назад дело было. У меня был собран raid1 средствами btrfs. Я ожидал, что смерть одного диска мне не страшна. В реальности файловая система перестала читаться и монтироваться, не помню уже, удалось ли мне данные вытащить
A1EF
Это был raid1 — всего два диска и было, один сдох
A1EF
Возможно, "это руки такие", возможно btrfs с тех пор стала лучше и веселее. Но впечатление было испорчено — я теперь не суюсь её использовать
Alexander
Это был raid1 — всего два диска и было, один сдох
Если смотреть по аналогии в ZFS 2 диска в RAID1 - это ведь не raidz?
A1EF
Нет, это mirror в ZFS
A1EF
Facebook в проде используют, вот они пусть с btrfs и танцуют. А я пас. Мой выбор — ZFS, пусть и не совместим лицензией с ядром
Alexander
Facebook в проде используют, вот они пусть с btrfs и танцуют. А я пас. Мой выбор — ZFS, пусть и не совместим лицензией с ядром
IMHO ценнее данных наверно только личное здоровье и эти две сущности очень сильно взаимосвязаны последнее время. Пусть сами экспериментируют с другими FS, для меня кроме ZFS не существует других FS для надежного хранения данных. До Солярки еще пока не добрался :(
A1EF
Еще пока? А нужно? 👀
Alexander
Еще пока? А нужно? 👀
Хотелось бы когда-нибудь попробовать для производительного прода, нетерпимого к downtime, мол этакая rock solid ZFS. Если лажанет не по вине железа, то ну ее нафик, хотя как определить, наверно ни в каждом случае это возможно кроме уж совсем очевидных ... Для online бэкапов кроме ZOL я даже ничего другого не рассматриваю.
Alexander
Кстати интересно было бы узнать у Василия @gjabu2_2, были ли в его практике случаи, когда ZFS on Solaris вела бы себя нестабильно, не так как описано в доке? Например на приемнике, чтобы не получалось повторно реплицировать dataset из-за того, что он отвис после прерывания прошлой репликации?
Alexander
Если не лезть в кишки системе то все нормально. Впрочем, как и в любом другом программном продукте
Получается, что ZOL не является "любым другим программным продуктом"?
Fedor
Просто чем сложнее продукт, тем сложнее делать вещи наобум без понимания матчасти.
Alexander
Является :)
И почему же тогда на приемнике ZOL иногда отвисает репликация даже если кильнуть сессию с "zfs receive ..." ?
Fedor
опиши условия и хронику того, как это произошло
Alexander
Просто чем сложнее продукт, тем сложнее делать вещи наобум без понимания матчасти.
Ctrl+C на источнике "zfs send ..." - это наобум? Репликация выглядит примерно так: zfs send -I DS@S1 DS@S2 | pv | ssh host "zfs receive XXX" Прерываю репликацию на источнике, на приемнике по прежнему висит сессия с receive, особенно если после потери связи (выключение интерфейса по таймеру например или выдергивание кабеля) или даже предположительно Ctrl+C на источнике. Прибиваю на приемнике shell сессию с receive по kill -s 9, она вроде бы даже и невсегда прибивается. Далее пытаюсь сделать ssh host "zfs rollback XXX@S1", вроде бы даже проходит. Дальнейшие попытки репликации сообщают, что XXX занят. Даже zpool export XXX_pool говорит, что пул занят, пишите в спортлото. Как на хосте приемнике - host датасет XXX вернуть в исходное состояние, готовое к репликации с источником ? ессно БЕЗ ребута.
Fedor
как только опишешь условия и хронику, можно будет начать разбираться
Fedor
с какой целью ты прибил начавшуюся репликацию?
Alexander
Другой пример, До версии 0.8.4x ZOL 0.7.12 не смогла отресилверить часть зеркала, пытался раза 3 (это почти неделя времени). Потом сделал detach и сразу же attach, т.е. пересоздание зеркала с нуля (впрочем и ресилверинг тоже почему-то шел раньше полный больше суток), и что вы думаете, оно опять не шмогло ... Тут мое терпение лопнуло, и я, почитав багрепорты, проапгредил сервер до 0.8.4. А если бы диск помер на нагруженном проде, который должен быть всегда аптайм? Именно поэтому я боюсь сейчас менять v0.8.6 на что-то другое. Но даже с вышеописанными багами ZFS была непревзойденно надежнее для моих кейсов хранения данных чем любая другая доступная мне FS, пользуюсь ZOL уже с 2012 года.
Alexander
с какой целью ты прибил начавшуюся репликацию?
Передумал, имею право передумать? Или сервер отрубился по таймеру, ifdown ethX.
Fedor
https://openzfs.github.io/openzfs-docs/man/8/zfs-send.8.html zfs send [-Penv] -t receive_resume_token Creates a send stream which resumes an interrupted receive. The receive_resume_token is the value of this property on the filesystem or volume that was being received into. See the documentation for zfs receive -s for more details.
Fedor
я до сих пор на 0.6 сижу, радуюсь и в ус не дую
Alexander
медленный ресильвер это норма, главное чтобы шёл.
В 0.7.12 он был не просто медленный, но еще и бесмыссленный и бесполезный, его можно было бы повторять по кругу ежедневно хоть год подряд, пока не сдохнут оставшиеся диски в деградированном пуле. А в 0.8.6 по сравнению с 0.7.12 ресилверинг просто сверхскоростной и пул не разваливается на части.
Fedor
учту
Fedor
пул и так не разваливался на части у меня
Fedor
ну вот и всё.
Fedor
в общем - не дочитал документацию.
Alexander
пул и так не разваливался на части у меня
Я большую часть времени держу половину бэкап пула в offline, и вот он полгода назад до апгрейда внезапно перестал собираться обратно в целый пул.
Fedor
предсказуемо
Alexander
предсказуемо
И почему же на 0.8.6 нет такого косячины?
Fedor
там много условий влияет, не только код фс.
Alexander
была бага в 0.7 с бесконечным ресильвером. в самом последнем релизе (вроде 0.7.13) решили проблему
Судя по багрепортам ее решали еще очень долго и упорно, вплоть до 0.8.5 У одних пул склеивался, у других по прежнему разваливался.
Fedor
у меня ресильвер недели полторы шёл например. но прошёл же. :)
Ivan
у меня ресильвер недели полторы шёл например. но прошёл же. :)
там он валился с ошибкой и начинался по новой
Fedor
о как. забавно
Fedor
ни разу не видел на своих системах чтобы не проходил
Alexander
там он валился с ошибкой и начинался по новой
У меня не валился, проходил на 100 с лишним процентов и потом опять по новой ... Хорошо, что это был домашний бэкап сервер без больших претензий по SLA. Но даже меня эта проблема успела изрядно достать за целую неделю попыток вывода пула из деградировавшего состояния.
Fedor
что солярис зфс, что зол, что иллюмос
Alexander
что солярис зфс, что зол, что иллюмос
Все таки Oracle Solaris посвежее Illumos. И это оригинальный код сановиков, а не детская поделка линупсоидов (по отзывам Василия).
Fedor
Основной иллюмос как раз у меня