nikolay
расскажите как ее проверить в принципе, про команду fsck разработчики не слышали видимо.
𝚔𝚟𝚊𝚙𝚜
George
keep calm, данные в порядке https://linux.die.net/man/8/fsck.xfs
тут должно быть что-то серьёзное про ntfs
nikolay
дефрагментация?)
Alexandr
👍😂
Alexandr
c 1м апреля! ))))
A1EF
btrfs было бы смешнее 👀
Δαρθ
вот вы прикалываетесь а я как раз переехал винтом с торрентами с xfs на btrfs
A1EF
Интересно, если есть XFS и ZFS, то почему нет YFS?
Δαρθ
Δαρθ
SJWFS
Vikentsi
Ну на фиг!!! XFS? Отписываюсь.
Олег
))))))))
Олег
верните nobarrier!!!!!
Олег
кстати никто не знает как вернуть в XFS его?))
Владимир
Эээ
Владимир
В смысле xfs
Владимир
Шутка бы удалась если бы и аву сменили)
Fedor
А это шифрование. Первый символ по ROT24 надо обработать
Eugen
А че чат xfs называется?)
Matrix Operator
А че чат xfs называется?)
принято решение отказаться от разработки ZFS и вернуть все в XFS
Eugen
Это 1е аппеля, ясно)
Олег
Matrix Operator
Это 1е аппеля, ясно)
Вы думаете, что я вас не переиграю?
Олег
Мосжно в zfs сделать принудительный ребаланс данных после расширения?
Fedor
насколько я помню, нет
Fedor
новые страницы данных будут писаться с учётом нового объёма. как старые выйдут из обращения - так и заребалансится.
Δαρθ
в zfs write hole для raidzN отсутствует?
Δαρθ
да
за счёт чего? за счет журнала (zil) или чисто на механизмах cow?
edo1
есл DDT не помещается в памяти, плохо будет и на optane, думаю
edo1
или если дедупликацию использовать с vdev с блоками по 4к
Δαρθ
https://www.klennet.com/notes/2019-07-04-raid5-vs-raidz.aspx
ZFS works around write hole by embracing the complexity. It is not like RAIDZn does not have a write hole problem per se, because it does. However, once you add transactions, copy-on-write, and checksums on top of RAIDZ, the write hole goes away. то есть чисто средствами cow достигается?
Δαρθ
наскоко я понимаю,checksumming ессно, cow. на базе cow транзакционность
Fedor
Да :)
George
100tb?))
кстати не все 100% данных даже надо перезаписать
George
в целом при дисбалансе любая запись на более пустой vdev поедет
Олег
Да :)
rsync+mv?))
Fedor
Так так.. кто логотип сменил? Я не против, конечно.
Александр🇷🇺
Я не при делах
Fedor
Судя по тому, что оригинальный зфс уступает место опензфс, и их различия стремительно накапливаются..
TokaToka
новые страницы данных будут писаться с учётом нового объёма. как старые выйдут из обращения - так и заребалансится.
Есть читы с zfs send/receive в рамках одного пула, при наличии места: https://serverfault.com/questions/859216/how-to-re-balance-data-in-zfs-make-sure-the-data-is-spread-amongst-all-strip/859223#859223
George
Так так.. кто логотип сменил? Я не против, конечно.
Я, тут в основном про openzfs вот и подумал
🆅🅺
набег с rm -rf / ?))
Alexander
Добрый день, пожалуйста, подскажите, как заменить идентификатор пула после клонирования файловой системы через dd?
Alexander
И стоит ли, кстати как потом реплики будут сосуществовать после клонирования?
Alexander
Про btrfs не знаю, реплики ZFS работают нормально, если не менять ID пула, а менять только имя причем в пункте назначения репликации
Nick
А кто-нибудь знает, что с опцией про lazytime? Будет ли, или есть причина её не делать? Нашел открытый тикет, но там давно тишина - https://github.com/openzfs/zfs/issues/9843
Александр
Всем Добрый день. столкнулся с такой проблемой - не удается удалиться зеркало logs, zpool remove выполняется, ошибки нет, но зеркало не удаляется, я нашел несколько похожих проблем на github(например эту - https://github.com/openzfs/zfs/issues/6677), пара были достаточно свежие, но не увидел нигде пофиксили это или нет. кто нибудь знает пофиксили это в какой то версии? или может есть какие то лазейки что бы все-таки удалить зеркало? моя версия zfs 0.7.13
Николай
Всем привет
Николай
Парни подскажите, есть pool из 2 дисков в Raid1 (zpool).Используется под данные OWNCLOUD, хочу переехать на новый сервак и ввиду того что такое делаю впервые прошу помощи,как можно переместить этот zfs pool на новую машину?
central
а вообще у вас где то должен быть бекап, и можно было бы его перенести, заодно и протестите аварийные действия если raid навернется
riv
Парни подскажите, есть pool из 2 дисков в Raid1 (zpool).Используется под данные OWNCLOUD, хочу переехать на новый сервак и ввиду того что такое делаю впервые прошу помощи,как можно переместить этот zfs pool на новую машину?
Выключить все процессы открывающие файлы на пуле, чтобы привести файлы в консистентное состояние. export snap_name=backup-2021.04.07-20.00 export pool_name=my_zpool # Делаем снимок пула со всеми файловыми системами zfs snap -r ${pool_name}@${snap_name} # смотрим сколько будет передано данных zfs send -nvR ${pool_name}@${snap_name} export send_size=1050GB export new_noop_name=new_zfs_pool # пересылаем данные на новый пул, с заменой данных на новом пуле zfs send -R ${pool_name}@${snap_name} | pv —size ${send_size} —name "${pool_name}->${new_noop_name}" | zfs receive ${new_noop_name} -F или на другую машину export dest_host_ip=192.168.0.12 zfs send -R ${pool_name}@${snap_name} | pv —size ${send_size} —name "${pool_name}->${new_noop_name}" | ssh root@${dest_host_ip} "receive ${new_noop_name} -F"
riv
Есть снапшоты самих данных используемых Owncloud, снимка пула нет.
Конечно нужно переносить не весь пул, а только датасет с данными, тогда моя инструкция не подходит.
Николай
zfs list и zpool list в студию, желательно с пояснениями где чего.
zpool list NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT rpool 7.25T 3.50T 3.75T - 27% 48% 1.00x ONLINE - [root@irs ~]# zpool status pool: rpool state: ONLINE scan: scrub repaired 0 in 1h56m with 0 errors on Sat Apr 16 22:57:12 2016 config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 sda2 ONLINE 0 0 0 sdb2 ONLINE 0 0 0
riv
вы хотите скопировать rpool/cloud-storage ?
riv
а где новый пул? На другой машине? там можно zfs list и zpool list ?
Николай
Да
Николай
На другой
riv
доступ со старой машины на новую по ssh есть?
Николай
Уже уехал с работы ..
Николай
Ищу решения, ввиду критичности данных