Y
Неа)нужно было много места…просто человеку чем больше тем лучше
ну при 24 дисках - один диск это 4% - там погоды не делает - если ему не хватает именно эти 4 процента для выбора Z1 вместо хотя бы z2 - то тут всё плохо
Y
Это было бы очень грустно(
я бы не вынимал сбойный диск в процессе - а замену подключил поралельно в таком случаи (да хоть через USB карман на время ребилда, если больше воткнуть некуда) - так всё надежней
CARA
ну при 24 дисках - один диск это 4% - там погоды не делает - если ему не хватает именно эти 4 процента для выбора Z1 вместо хотя бы z2 - то тут всё плохо
Скажем так была одна монетка…и админ злоупотреблял…не волнуют диски главное что бы было больше места.он уволен и этого ничего нет….Потом был другой который не догадался переделать на з3 хотя бы и запилил туда много важного.Потом я и нарыл всю историю и плачу.
Y
Скажем так была одна монетка…и админ злоупотреблял…не волнуют диски главное что бы было больше места.он уволен и этого ничего нет….Потом был другой который не догадался переделать на з3 хотя бы и запилил туда много важного.Потом я и нарыл всю историю и плачу.
тут главное крайним не оказатся - надо идти и объеснять руководству... зы ну а если на важное бэкапов нет то лучше сразу менять место работы, потом на текущего одмина повесят если дата пропадет
CARA
Поменять диск перенести переставить и жить хорошо план такой
CARA
Есть куда перенести)
CARA
Не страшно)ну лучше диск поменять)
Y
Поменять диск перенести переставить и жить хорошо план такой
мой план - цепляешь новый диск (хоть по USB) - делаешь на него реплейс - меняешь диски (если нельзя выключать - можно сделать новому и старому диску офлайн потом воткнуть новый и сделать онлайн - это можно на лету сделать - не умрёт)
CARA
Вроде заменяется)))
CARA
Жду сижу)Хорошо это или плохо правильно не правильно незнаю)
Y
Ну я это уже сделал)Что то)Я же давно писал)Сейчас так незнаю заведется все или нет)
ну так ты тут старый уже отключил - и сейчас у тебя страйп - то есть любой сбойный сектор на любом другом диске может сделать "дырку" в данных
Y
а если бы не отключил - то старый бы удерживал избыточность пока не заменится , и исправил бы одиночные ошибки
CARA
Подключать не куда)
CARA
САС диски)
Y
Подключать не куда)
можно было бы что-то придумать если не пороть горячку
CARA
Да я думаю и реплейс бы быстрее сделался в разы)
Y
Да я думаю и реплейс бы быстрее сделался в разы)
нет разницы , только если диск совсем мертвый и постоянно вводит в ступор контроллер или отваливается - рекомендуется его отключать
CARA
Я думаю когда буду переустанавливать так и сделаю)
CARA
1 диск зарезервирую свободным в пул не буду брать)
CARA
+ radz-3)
Y
+ radz-3)
имхо на z3 можно не оставлять свободное место
Y
на с таким колличеством дисков я бы задумался о dRAID
Y
можно было бы сделать dRAID-Z2 и один спаре диск - восставнавливается намного быстрее....
The Join Captcha Bot
Капча решена, Пользователь подтвержден. Добро пожаловать в чат, Владимир
Mikhail
/report
Mikhail
/report
Eugen
Приветствую! Подскажите как обнулить настройки ARC? а именно arc max min
Denis
Подскажите насколько критично делать zfs на raid6 который собран по средствам контролера? Слышал, что zfs нужен прямой доступ к диску без прослойки в виде raid контролера.
Fedor
Подскажите насколько критично делать zfs на raid6 который собран по средствам контролера? Слышал, что zfs нужен прямой доступ к диску без прослойки в виде raid контролера.
Контроллер будет дополнительным источниклм возникновения потенциальных сбоев при записи, что может привести к потере консистентности
ViP
Всем доброго дня! Есть установленый Proxmox 8 на ZFS raid1, все отлично работало пока я не решил добавить еще одну стат IP и в конфигурации сети interfaces допустил ошибку и сервер вылетел из сети. Загрузился в режиме восстановления поключил zfs pool ,но там пусто, есть только диск виртуалок и контейнеров. Подскажите как открыть диск что бы можно было отредактировать сеть или скопировать файлы Proxmox
ViP
Сервер находится на Hetzner
Михаил
В proxmox если система установлена на zfs, то / в rpool лежит. Попробовать его импортировать или заказать iKVM
ViP
В proxmox если система установлена на zfs, то / в rpool лежит. Попробовать его импортировать или заказать iKVM
Смонтировал, пул есть, в нем есть папка ROOT и Data( имя прокса) в папке . В папке root фалов нет, но по идее там должны лежать все файли Проксмоса. В папке Data есть диски виртуалки и контейнера. Шифрование в zfs не включено,
CARA
Подскажите пожалуйста хочу взять такой HBA-адаптер LSI SAS 9300-8i или стоит присмотреться к чему то другому?)
Animal
Братва, привет. Нубский вопрос. Гуглить чот не охота )) Есть ПУЛ, на нем 1 датасет и 1 вольюм. Надо эти датасет и вольюм перенести на другой пул. Если я делаю снапшот ПУЛа и send/recv его на другой пул - переедут оба сразу два ? И дата сет и вольюм? Или надо поочередно снапшотить датасет и вольюм и по отдельности их на новый пуль отправлять ? ПС если можно как-то сразу оба отправить мб какие ключи доп надо юзать типа делать снапшот ПУЛа рекурсивно... Как? )) Сорри если сумбурно
Vladislav
Хотя бы честно про гугл
Vladislav
И да, можно просто отправить снап корневого пула и он заберёт все что ниже (т.е. датасеты и zvol)
Animal
И да, можно просто отправить снап корневого пула и он заберёт все что ниже (т.е. датасеты и zvol)
ОК. СПС. доп ключей там не надо при снапе корн пула? типа кнть для рекурсии что бы все что на нем забрало. Достаточно только zfs snapshot pool_name - так?
Animal
Сенькю вери матч
Animal
👍
Evgeny
Сервер находится на Hetzner
попроси доступ к консоли на 3 часа и исправь ошибку
Sergey
Коллеги, может быть есть гуру в zdb? Есть пул из 10 дисков raidz2, ashift=12, создан zvol с блоксайз 32КБ, прописан от начала до конца. Как с помощью zdb посмотреть, как произвольный рекорд 32К разместился на дисках пула?
Mikhail
/report
Mikhail
/report
Fedor
почти 2 недели нет ошибки WARNING: zfs: adding existent segment to range tree (offset=a18422c6000 size=4a000) при этом ни ребутался, ни модуль не перезагружал но обновлял пакеты в системе при этом разработчики вроде как пофиксили несколько причин возникновения, возможно в след релизе уже будет
Fedor
в теории могли какие-то данные перезаписаться, из-за которых была ошибка по сути больше ничего
Дмитрий
Всем привет! У меня на ZFS в TrueNAS есть Datasets предназначенные для записей с камер видеонаблюдения. Можно ли как-то для них (и только для них) отключить кеш и прочие плюшки? Пока создал только их, а кеш в памяти уже на 8Гб, который никогда (надеюсь) не будет использоваться, там ж только запись идет, а ресурсы на него будут уходить постоянно. P.S. Пул один, в нем только датасеты.
Дмитрий
zfs set primarycache=none poolname/datasetname
Спасибо, пошел гуглить детали!
Ivan
я слегка погуглил и не нашел можно ли указать права на удаление только снапшотов. кто-нибудь знает ?
Ivan
чет похоже нет отдельной фичи для удаления только снапов. в вишлистах просят, но запиленой фичи не видно.
Shaker
Этож целый RBAC
Shaker
Я думаю в ZFS оно лишнее
Shaker
Там много где еще доступов можно прикрутить
Shaker
Но лучше заняться стабильностью и скоростью
Ivan
в zfs allow много чего можно разрешить, однако не всё достаточно гранулярно.
Free
На сервере имеется несколько пулов из одиночных дисков. Один из пулов перешел в состояние SUSPENDED, по ошибкам zpool status показал errors: List of errors unavailable: pool I/O is currently suspended zpool clear этого пула приводит к зависанию команды. После чего вообще любая команда zpool зависает. По запросу zpool clear hang находятся аналогичные баги, датирванные 2017-18 годом, вызванные, например, кратковременным отключением USB. У меня соединение по SATA. lsblk диск видит. Есть ли способ починить пул или хотя бы восстановить работу команды zpool, не перегружая сервер?
Алексей
не ужели ты еще не понял что в таких случаях можно только ребутать )))
Free
не ужели ты еще не понял что в таких случаях можно только ребутать )))
Ну я так и делаю, но оставалсь надежда, что есть более умные/опытные пользователи 😜.
Free
не ужели ты еще не понял что в таких случаях можно только ребутать )))
А вообще на этом сервере мучительно две недели уже пофайлово одна нода с ext4 на zfs переносится, дважды уже прерывать перезагрузкой приходилось - и вот опять заново запускать 🤯
Free
Надо было сначала на ссд образ скинуть
Да нету у меня 5ТБ ССД 🤷‍♂️
Ilia
Возьми 7 терабайтны
Алексей
Возьми 7 терабайтны
жирный совет))))))
Алексей
ну у меня тоже не было, я сгонял на авите взял бу какое то за почти бесплатно
Алексей
два по 3,84