Станислав
А сколько раз отключали электричество в офисе...
Станислав
битая плашка это RIP на любой ФС
Тем не менее выжила ФС.
central
бл*ть, фс то выжила а насколько у вас там фраш из данных это уже слегка более глубокий вопрос
Александр
скраб
не уверен, что даже скраб победит битую планку
central
с битой памятью его достоверность не гарантируется
Станислав
Тут, конечно, да. Пока ничего испорченного не обнаружил. Да там и ничего критичного
central
а кто сказал что повреждение данных можно на глазок увидеть
Fedor
скраб
данные могут повреждаться еще до вычисления чексуммы
Станислав
данные могут повреждаться еще до вычисления чексуммы
Просто разговор был про то, что умирает ФС от выключения электричества. То, что они некорректные могли поступить, то понятно
Fedor
вспоминаются истории с электричеством у нежурналируемой фат и нтфс - вот там даааа
Станислав
вспоминаются истории с электричеством у нежурналируемой фат и нтфс - вот там даааа
Не, такие ФС не вспоминали, основной упор был, что EXT4 стабильная и проверенная
central
ext4 выключением электричество довольно легко повреждается
Станислав
При том, что чуть ли не каждый день где-то в обслуживаемой сети падал этот ext4 прямиком в initramfs или вообще в полный отказ
Fedor
ext4 выключением электричество довольно легко повреждается
там скорее из-за грязных незаписанных страниц
Fedor
мне так кажется, по крайней мере.
Evgenii
У меня на 3х машинах без видимых проблем со swap разделом в самом zfs. Ладно на одной 128Гб оперативы и свободной много, а на двух по гигу оперативы, своп временами юзается, но не активно
как создавали? напишите какие свойства у тома. Я вчера тестировал, у меня нода падала. zfs create -V 64G -b $(getconf PAGESIZE) -o compression=zle \ -o primarycache=metadata -o secondarycache=none \ -o sync=always -o logbias=throughput \ -o com.sun:auto-snapshot=false rpool/swap
Ivan
А ещё говорят, что ZFS при аварийном отключении обязательно падает
это один болезный в квм чатике носится с этой идеей
Evgenii
насколько старое ядро?
5.13.19-3-pve zfs 2.1.2-pve1
Evgenii
Тестировал так: на ноде 128 gb ram, как только в SWAP залазит, все зависает. stress --vm 1 --vm-bytes 140000000000 При этом если swap на отдельном SSD, то отлично работает даже когда в SWAP падает 50-60 гб Еще тестировал zram, если немного и "не быстро" в него залазить, то все работает, но если резко, то сервер надолго может застрять в 100% загрузке CPU по все 32 ядрам процессом z_wr_iss. Этим же тестом можно проверить. Сервер конечно не падает, но все что на нем запущено почти замирает. (routerOS может даже на пинги перестать успевать отвечать)
Δαρθ
боян же, нельзя делать своп на зфс. вроде еще не починили и не планируют
central
ну где то год назад вроде говорили что починили но подтверждения никто не дал
Vladislav
Я только поверх ZFS на билд машинах экстренно повышаю размер свопа.
central
чо правда?
если планируется активная запись в него
Δαρθ
выше говорят что якобы починили. есть номер issue или pr посмотреть?
Александр
если планируется активная запись в него
То-то у меня за последние, хм, лет пять ни разу не слетало...
Александр
George
BSD
жалобы про линь в основном. В общем разрабы не упарывались пока в свап, гарантий нет но и сказать что у всех моментально разваливается
Sergey
George
всего лишь в полтора раза?
George
обычно собирают просто 2 варианта - с иксами и без
Владимир
я если честно брал обычный лайвсиди, доустанавливал в него после загрузки нужные пакеты для работы с зфс и работал)
Владимир
я даже не думал что существует специальный лайвсиди)
George
не каждый день нужно, поставить в дебиане пакет и дождаться сборки - пара минут. Не отговариваю иметь готовый образ, просто под рукой обычно уже есть исошник системы
Art
Sergey
Sergey
собственно, вот: https://github.com/nchevsky/systemrescue-zfs Последний коммит 15 декабря 2020
Art
собственно, вот: https://github.com/nchevsky/systemrescue-zfs Последний коммит 15 декабря 2020
Оо, да, вот она, точно. Блин, жаль что не развивается. Ванильный-то дистрибутив ведь уже 9 версию перешагнул
Aleksey
собственно, вот: https://github.com/nchevsky/systemrescue-zfs Последний коммит 15 декабря 2020
Проверил в grml линуксе (для сисадминов лайв)тоже нет поддержки zfs из коробки.
Владимир
Есть сборка SystemResque с зфс 2.0 на борту
Я недавно пользовался, переливал данные с lxc на qemu, делал из контейнера виртуалку
Владимир
могли бы составить мануальчик ?)
Делаем раздел, к примеру ext4, синхроним туда все файлы с lxc за исключением сис прок и дев, цхрутимся туда, ставим ядро и граб, инстал им граб. Всё
Δαρθ
подскажите, что даёт zfs redact? ну например делают снапшот, потом клон, потом из него удаляю ненужное, потом шлю получившееся на удаленную локацию. где тут zfs redact может помочь и в чем его плюшки?
Николай
#вопрос Парни подскажите пытаюсь установить zfs в rad hat 8.5 вылазит эта херь, добавляю - - skip-broken, nobest не помогает, может кто сталкивался.
Ivan
я не знаток rhel, там свои тонкости с репами.
Ivan
ну или можно тупо epel подключить (что не совсем правильно)
Δαρθ
возможность отправить zfs send stream без каких-то данных, например sensitive инфы (пароли, персоналка)
а как это делать? доку читал, дочитал до 'example', суть повествования потерял
Ivan
А почему не правильно?
у rhel свои репы и экосистема, а подключение сторонней репы может снизить безопасность например
George
а как это делать? доку читал, дочитал до 'example', суть повествования потерял
вот большой кусок инфы https://openzfs.github.io/openzfs-docs/man/8/zfs-redact.8.html#Redaction
Δαρθ
вот большой кусок инфы https://openzfs.github.io/openzfs-docs/man/8/zfs-redact.8.html#Redaction
я про него и говорю. там нет реальных примеров и потому вощем-то неясно, что делать
Δαρθ
там скорее какое-то bla-bla, если честно.
Δαρθ
я вполне понимаю как такие доки пишут — у разрабов и так всё в голове, и они пишут что-то для того, у кого тоже всё в голове :)
Δαρθ
но снаружи иногда получается, что непонятно нифига :)
Δαρθ
велкам пример в доку добавить
хыыы... я сам не вдупляю пока :)
Ivan
Не подскажите как это сделать?
subscription-manager repos --enable rhel-8-server-optional-rpms --enable rhel-server-rhscl-8-rpms возможно это поможет (по аналогии с rhel7)
Nikita
Благодарю, но вопрос скорее касался оптимизаций ввиду наличия дополнительных слоёв абстракций в сценариях, когда используются сторонние файловые системы поверх zfs. Вынос журналов и т.п. характерен для по сути любых инсталляций.
Nick
Потому, порядок действий такой: 1) Создаём zvol с нужным volblocksize 2) Создаём ФС, для многих из них есть параметры для тюнинга под размер блока данных, чтобы ФС их складировала не разрозненно. Например, в ext4 stride указывает, сколько кластеров должны формировать блок данных. Так как этот тюнинг рассчитан был на корректное размещение данных для raid в stripe, то, желательно, указать stripe-width. В случае с ZFS, он всегда равен stride. 3) Я отключал журналирование данных в ext4, так как у нас эту функцию выполняет zfs. Оставлял только метаданные. 4) Монтирование в виртуальной машине. К сожалению, не записал нигде. Насколько помню: data=ordered,noatime,nobarrier
отключать журналирование в ext4, который поверх zfs плохая идея в ряде ситуаций, и особенно в дефолтных настройках ext4 - с очень большой гарантией можно получить поврежденные таблицы. Кроме того, мускль на ехт4 на зфс заведомо медленнее, чем нативно на любом из, а write amplification зашкаливает