Mikhail
LeiDruid
У меня обычно от 8 до 16 ssd на сервер
Fedor
Fedor
Вот официальный зфс говорит, что надо. Дериватив в виде развития в пределах иллюмоса- тоже. Зол - не знаю, но он должен быть подчинен примерно тем же правилам
Mikhail
http://open-zfs.org/wiki/Performance_tuning#Whole_disks
Mikhail
вот единственная ссылка про whole disks
Mikhail
и там явно сказано что партиции ок при алайменте
Fedor
Что в первой фразе написано?
Fedor
Самой первой
Mikhail
ZFS will also create a GPT partition table own partitions when given a whole disk under illumos on x86/amd64 and on Linux. This is mainly to make booting through UEFI possible because UEFI requires a small FAT partition to be able to boot the system. The ZFS driver will be able to tell the difference between whether the pool had been given the entire disk or not via the whole_disk field in the label.
Mikhail
Whole disks should be given to ZFS rather than partitions. - "should be" - никакой деградации производительности во фразе нет ))
Mikhail
возвращая к исходному вопросу про RootOnZFS, RootOnZFS нормально работает при создания пула через партиции и дублировании boot партиции. Без потери производительности и без прочих side эффектов
Fedor
Fedor
Но рут - всего лишь система, в ней не предполагается хранить ценные данные. Изначально. 😁
Mikhail
рут всего лишь система, а rootonzfs - это уже больше чем система, к примеру boot environment-ы. партиции восстановить не сложно, если их бекапить ;) всего килобайт информации)))
Fedor
Читайте администрейшн гайды, в общем. Там ко всем рекомендациям даны исчерпывающие обоснования.
Mikhail
Читайте администрейшн гайды, в общем. Там ко всем рекомендациям даны исчерпывающие обоснования.
странная у вас реакция конечно. особенно если читали и гайды и код... мда ))) прошу относить без обид, но никто не застрахован от ошибок и лишь в конструктивных обсуждениях может выявить верные факты и теории. для этого чат то и существует, не так ли? та же установка FreeBSD как RootOnZFS успешно проставляет алайны и прочие вещи сама. Остаётся только настроить бекапы через zrepl + gpart backup.
Fedor
В чатике я рад помочь, подсказать, затраблшутить, но переубеждать в игнорировании рекомендаций, основанных на математической модели самой ФС с припиской «и так работает» мне не слишком интересно.
Fedor
В отношении ос и алайнов- сами ос стали немного умнее и заранее делают офсет для фс, который уложится практически в любой из существующих блоков. Толи мегабайт, толи 4
Fedor
Со временем я пришёл к идеологии, что и системы, и сервера - расходный материал в пользу сохранения невосстановимых данных и работоспособности сервисов. Управлять этим сразу становится проще.
Fedor
странная у вас реакция конечно. особенно если читали и гайды и код... мда ))) прошу относить без обид, но никто не застрахован от ошибок и лишь в конструктивных обсуждениях может выявить верные факты и теории. для этого чат то и существует, не так ли? та же установка FreeBSD как RootOnZFS успешно проставляет алайны и прочие вещи сама. Остаётся только настроить бекапы через zrepl + gpart backup.
Я тут подумал. Может быть так, что я предпочитаю рекомендации для того, чтобы снять с себя лишнюю головную боль в обслуживании этого балагана. Чем больше ключевых рекомендаций соблюдено, тем меньше мне придётся возвращаться к этой системе, потому, что она просто будет работать, и работать предсказуемо. Операции по траблшутингу, количество действий по восстановлению в случае проблем, также будет минимизировано.
Fedor
Как говорится, сделал и забыл про неё
Fedor
Fedor
Так и написано выше.
Andrey
Мне кажется , я говорю полуполный, а ты - полупустой. ☺️ А так да, говорим об одном и том же.
Александр🇷🇺
Всем привет. Что тут у вас?)
Александр🇷🇺
Bad checksum обсуждаете?
Павел
zpool clear zpool? )
Fedor
Добро пожаловать в сообщество ZFS.
Прошу свои сообщения помечать для упрощения поиска тэгами: #проблема #решение #faq #man #doc и подобными. Тэгируя вы помогаете собрать базу знаний.
Правила чата:
1) У вас вопрос и/или проблема? Уважайте время людей, пишите больше деталей.
2) Запрещены:
2.1) Флуд не по теме
2.2) Срач
2.3) Оскорбления
2.4 ) Расизм / разжигание межнациональной розни / фашизм
2.5) Наркотики
2.6) Экстремизм ( согласно УК РФ )
2.7) Варез
Отказ от ответсвенности: публикация ссылок на варез и его использование на свой страх и риск. Администрация чата не несёт ответственности за это.
Кара за нарушения:
2.1 + 2.2 + 2.3: только чтение --> бан --> перманент бан
2.4 + 2.5 + 2.6: бан --> перманент бан
Дружественный чат Proxmox: @ru_proxmox
---
Администатор: @neurox
---
Moderators: @iacsvrn
---
Александр🇷🇺
Всем вечер добрый
Александр🇷🇺
Помогайте
Александр🇷🇺
Как на zfs глянуть тип рейда?
Александр🇷🇺
zpool status показывает mirror-0. Означает ли это, что это raid0?
Mikhail
а в чем именно вопрос. ну зеркало - да, типа raid0
Александр🇷🇺
Александр🇷🇺
1,0,10
Mikhail
в zfs другая терминология... но mirror - да, это зеркалирование в обычном понимании
Александр🇷🇺
Александр🇷🇺
Или есть иной подход?
Александр🇷🇺
Не смог нагуглить, иначе ты не спрашивал
Konstantin
http://www.zfsbuild.com/2010/05/26/zfs-raid-levels/
Посмотри тут
В частности
Mirrored Vdev’s (RAID1)
This is akin to RAID1. If you mirror a pair of Vdev’s (each Vdev is usually a single hard drive) it is just like RAID1, except you get the added bonus of automatic checksumming. This prevents silent data corruption that is usually undetectable by most hardware RAID cards. Another bonus of mirrored Vdev’s in ZFS is that you can use multiple mirrors. If we wanted to mirror all 20 drives on our ZFS system, we could. We would waste an inordinate amount of space, but we could sustain 19 drive failures with no loss of data. How To Create Mirrored Vdev Zpool
Konstantin
Mirrored Vdev’s are equivalent to a RAID1 array, with the added bonus of checksum data to prevent silent data corruption. The performance of a Mirrored Vdev Zpool will be very similar to a RAID1 array.
Александр🇷🇺
Fedor
Я с телефона. zpool iostat покажет конфигурацию. Выложишь вывод сюда - скажу, что из чего у тебя сделано.
Fedor
-v ключик
Александр🇷🇺
Fedor
Аналог Райд 1
Александр🇷🇺
zpool iostat -v помог
Александр🇷🇺
Спасибо
Fedor
Mikhail
верно
LeiDruid
Товарищи, а вообще законно налету менять recordsize ?
LeiDruid
Ну, например, когда меняется сценарий использования пула или датасета
Fedor
Старые данные останутся на старом рекордсайзе
Fedor
Как и компрессия, и тому подобное
LeiDruid
ясно, спасибо
Fedor
Кстати, по статистике, у кого какой разброс данных по вдев?
Fedor
Кто бы что не говорил, равномерного заполнения я не видел ни разу.
LeiDruid
Как померить ?
Fedor
zpool iostat -v это покажет
Fedor
Аллок
LeiDruid
mirror 116G
ata-Samsung_SSD_850_PRO_1TB_S2BBNWAJ203038Y -
ata-Samsung_SSD_850_PRO_1TB_S2BBNWAJ103167Z -
mirror 116G
ata-Samsung_SSD_850_PRO_1TB_S2BBNWAJ204415X -
ata-Samsung_SSD_850_PRO_1TB_S2BBNWAJ203034L -
mirror 116G
ata-Samsung_SSD_850_PRO_1TB_S2BBNWAJ204412N -
ata-Samsung_SSD_850_PRO_1TB_S2BBNWAJ204416J -
вроде ровненько
Fedor
Данных маловато.
Fedor
От терабайт расхождения появляются
LeiDruid
не дождаться мне :(
Mikhail
Аллок
mizhka@summerhouse:~ % zpool iostat -v
capacity operations bandwidth
pool alloc free read write read write
-------------- ----- ----- ----- ----- ----- -----
zvol 2.74T 2.70T 16 113 1.17M 8.15M
raidz2 2.74T 2.70T 16 113 1.17M 8.15M
gpt/zvol00 - - 8 91 225K 2.09M
gpt/zvol01 - - 7 88 180K 2.09M
gpt/zvol02 - - 8 90 196K 2.08M
gpt/zvol03 - - 8 87 222K 2.09M
gpt/zvol04 - - 7 84 180K 2.09M
gpt/zvol05 - - 8 86 199K 2.08M
-------------- ----- ----- ----- ----- ----- -----
хм... так он не показывает по vdev-ам
Fedor
у тебя один вдев - тот, что райдз2
Fedor
из вдевов собирается, как правило, страйп уже
Fedor
а почему диски имеют префикс звол?
Mikhail
Mikhail
то есть ты не про диски под vdev, а про страйп поверх vdev в zpool? сорри, неправильно прочитал вопрос.
Fedor
вот, что имею ввиду (одна из системок под управлением)
Fedor
ощущение, что там выбор вдева для записи по хешу производится :)
Mikhail