Eugen
Это стандартный инструмент, странно что ищут все на стороне)
Krey
Я вот лабаю под VS сервисы под линь. Срыв шаблона?
ウァシーリイ
Всем привет
ウァシーリイ
Проблема
ウァシーリイ
Ни в zfs list ни в zpool list пул не видно
ウァシーリイ
Но в fdisk -l пишет что место занято, то есть все данные на месте
ウァシーリイ
Как мне пул примонтировать
ウァシーリイ
Почему-то он пропал, до этого работало всё. Единственное вмешательство было - подключил в проксмоксе самба шару этого диска и туда бэкапы делал
Владимир
zpool import
ウァシーリイ
zpool import
Просит дать новое имя. Это точно то?
ウァシーリイ
У меня щас ниче не удалится?
ウァシーリイ
Владимир
Незнаю)
ウァシーリイ
Незнаю)
Главное теперь оно появился в zfs list, но свои файлы я не вижу
ウァシーリイ
Незнаю)
Фух починил. zfs mount Disk1
Alexander
/stat@combot
Combot
Total messages: 17876
Олександр
По ошибке запустил в зеркале replace нормального диска на новый. Ресильвер идет, сервер работает. А че, так можно было? :)
Олександр
Это ясно как божий день. Просто не думал что возможно вообще. Уже заменил сбойный на "освободившийся", все ок.
d
Если был неверный
Murmuring
А какой io шедулер использует zfs?
Mikhail
А какой io шедулер использует zfs?
zfs вроде работает и на винде и на bsd. Так что скажем что ортогонально к шедулерам blk/blk-mq. ибо разные подсистемы
Mikhail
То есть шедулер тот, что в системе по умолчанию стоит ?
Да, стоит то что выбрало ядро линукса в зависимости от типа устройства.
Mikhail
Ок, спасибо
это по логике и по небольшому опыту. Лучше спросить ж пошире мнение, ибо могу и ошибаться.
Murmuring
То есть шедулер тот, что в системе по умолчанию стоит ?
https://openzfs.github.io/openzfs-docs/Performance%20and%20Tuning/Module%20Parameters.html#zfs-vdev-scheduler When the pool is imported, for whole disk vdevs, the block device I/O scheduler is set to zfs_vdev_scheduler. The most common schedulers are: noop, cfq, bfq, and deadline. In some cases, the scheduler is not changeable using this method. Known schedulers that cannot be changed are: scsi_mq and none. In these cases, the scheduler is unchanged and an error message can be reported to logs.
Fedor
https://www.opennet.ru/opennews/art.shtml?num=54427
Mikhail
Больше пользователей,больше фиксов :)) ixsystems молодцы ;)
Alexandr
🤬
Alexandr
других слов нет...
Alexandr
Alexandr
смотрите какое сообщение они добавили в патч
Ivan
должны бы уже все привыкнуть, что слово stable каждый понимает по-своему
Alexandr
они год беты муружили
Alexandr
этого сообщения не было ни при апгреде с 11.3 ни при последущем патче
Alexandr
это они так подстраховались
Ivan
а разве трунас не скурвился вообще ?
Ivan
а, с trueos попутал )
Alexandr
я думаю после этого с них многие свалят
nikolay
вопрос - можно ли собрать на двух SSD по 800 Gb (SAS, mixed workload) special vdev в mirror для пула из 4-х vdev по 10 HDD в raidz2? особенно с учетом "The redundancy of this device should match the redundancy of the other normal devices in the pool"
Nikita
вопрос - можно ли собрать на двух SSD по 800 Gb (SAS, mixed workload) special vdev в mirror для пула из 4-х vdev по 10 HDD в raidz2? особенно с учетом "The redundancy of this device should match the redundancy of the other normal devices in the pool"
У меня реданданси в спешиала вообще нигде не совпадает с реданданси остальных вдев. Всё работает, тьфу-тьфу, не падает.
Nikita
Кстати, а безболезненно извлечь спешиал вдев из пула уже можно? Или с момента появления он намертво завязан?
Ivan
но вродь special+raidz - неочень связка.
Nikita
но вродь special+raidz - неочень связка.
Сорри, а почему? На всех моих инсталляциях со спешиал - спешиал представлен зеркалом из двух ссд, а прочие вдев в пуле - raidz разной степени избыточности. Чем плоха подобная связка?
Ivan
Сорри, а почему? На всех моих инсталляциях со спешиал - спешиал представлен зеркалом из двух ссд, а прочие вдев в пуле - raidz разной степени избыточности. Чем плоха подобная связка?
я точно не помню в чем заковырка. то ли слабая производительность, то ли нельзя special на raidz "выключить" нужно у @gmelikov уточнить
Alexandr
какраз наооборот)
Alexandr
он для raidz и задумывался)
George
можно. тогда special будет писаться на hdd пул.
нееееет! zpool remove работает пока ТОЛЬКО если в пуле нет raidz vdevs!
George
но вродь special+raidz - неочень связка.
он для raidz и draid и делался, если что
George
У меня реданданси в спешиала вообще нигде не совпадает с реданданси остальных вдев. Всё работает, тьфу-тьфу, не падает.
iirc главное чтобы реданданси хоть какое-то было, сколько дисков может вылететь он в обязательной проверке емнип не считал
Ivan
он для raidz и draid и делался, если что
о, не знал ) я только на raid10 юзаю.
George
о, не знал ) я только на raid10 юзаю.
в draid просто всё ещё хуже с эффективностью хранения мелких блоков (мета в первую очередь), там даже сначала для меты тупо зеркало внутри было (не помню как в итоговом патче правда)
nikolay
Объём спешиал вдев меньше одного процента получается
George
Георгий, а как в моем случае быть с объемом спешиал вдев? Объём пула у меня 216 тб, полезный объём 161 тб
примерно так Option #1: Take the estimate that the metadata SSD should be about 0.3% of the pool size for a typical workload. For atypical workloads scale appropriately. Option #2: run "zdb -Lbbbs POOLNAME" for block statistics. Level 0 ZFS Plain File and Level 0 zvol objects do NOT go to the metadata SSD, but everything else would. This may take a while, but would give the most accurate answer possible. Oh, and use the ASIZE column for your measurements.
nikolay
тупой вопрос - как расшифровывается аббревиатура iirc?) не первый раз вижу ее в чате..
Fedor
if I remember correctly; if I recall correctly. https://www.dictionary.com/browse/iirc
Привет! А в зфс дедуп по аналогии с хеш-таблицами реализован?
George
Привет! А в зфс дедуп по аналогии с хеш-таблицами реализован?
в дедуп под капот не смотрел, не скажу точно
Олег
Скажите, кто-нибудь использует ZFS с дедупликацией под бекапы? Сколько вам удается сэкономить места на диске?
Олег
Но имхо нужно бекапилку
Олег
а не фигней страдать
Олег
pbs вариант
Олег
Но он еще демо
Олег
Бекап делается уже лет 5
Олег
pbs?
Олег
pbs?
https://pbs.proxmox.com/wiki/index.php/Main_Page
Олег
ну или veeam
Олег
@Oller22 а в PBS, что вас больше всего привлекает?
Олег
@Oller22 а в PBS, что вас больше всего привлекает?
Халява и возможно бекапа proxmox инкрементально
Egor V
Сравнивал EMC DataDomain, HPE StoreOnce и MS NTFS DEDUP. На одинаковом наборе данных (450 Гб виртуалок разных) коэффициент дедупа почти одинаков 1:8.8