Nikita
Интересует именно производительность и стабильность работы.
Nikita
Разница не большая в районе 5%
Мол, падает производительность, если условно, отдать ему из 10000Гб раздел размером 9500Гб против передачи всего диска на откуп zfs?
Art
а если jbod или hba тоже плохо?
не... ну hba это ж прямой доступ и есть по сути, так ведь, с ним всё огонь!
Георгий
фух, ну прям отлегло )
Ярослав
Мол, падает производительность, если условно, отдать ему из 10000Гб раздел размером 9500Гб против передачи всего диска на откуп zfs?
Да, но все зависит от конкретного железа и конфигурации пула. Цифра может быть меньше или больше. Всегда когда строю пул на барметал, стараюсь отдавать весь диск сразу. Но к примеру проксмокс инсталлятор при установке корня и загрузки на zfs делает отдельные gpt партици
Δαρθ
А вот это надо проверить
ну да. но разница в перфомансе только от этого может возникать
Egor
Майкл Лукас в своих книгах рекомендует делать zfs поверх gpt
Egor
Правда там же рекомендация делать это во FreeBSD или другом юниксе )
Δαρθ
ну оно же знает что оно само их создало
Ivan
непонятно, а шедулер откуда знает что эти партиции не ты создал, а zfs ?
Aba
ну оно же знает что оно само их создало
Кто "оно" и откуда знает?
Δαρθ
я думаю, есть способ обращпться в блочный девайс мимо шедулера ос
Nikita
Корректный метод проверки? zfs 2.0.5, proxmox 6, первый диск разбит штатным инсталлятором системы, второй отдан целиком zfs-у, на третьем создан отдельный раздел (-1 Gb от общего объёма) и zfs-у отдан только этот раздел.
Andrey
Если посмотреть linux io diagram https://www.thomas-krenn.com/de/wikiDE/images/e/e0/Linux-storage-stack-diagram_v4.10.png то можно предположить, что если zfs отдан, например, /dev/sdb -то путь взаимодействия м б LIO->optional->BIO->hooked in device drivers->/dev/sd* Если же отдан раздел /dev/sdb2(например) - то путь взаимодействия через scheduler Косвенно можно понять, например, если расширить блочное устройство /dev/sdb (в среде виртуализации к примеру) - то при расширении zfs - проблем не наблюдается, а при расширении /dev/sdb2(а /dev/sdb1 замонтирован наппример как ext4) требуется перечитать партиции с помощью partprobe или partx - но не получится, т к /dev/sdb управляется ядром,таблица закэширована и для ее обновления необходимо размонтировать разделы но это все предположения - нужно копать исходники, чтобы посмотреть как все это устроено
Eugen
Народ, подскажите сколько метадату на Zol сделать? И главное сколько пользуюсь не пойму зачем она вообще нужна))
Eugen
Zvol?
Zfs on linux
central
Какая метадата?
Eugen
Какая метадата?
Та что в арк, читал описание но так и не вкурил что же это такое
central
Все ещё не понимаю что за метадата
Eugen
zfs_arc_meta_limit zfs_arc_meta_min вот эта
Eugen
Все ещё не понимаю что за метадата
Так что, есть инфа какая то?))
central
а чем вызвана необходимость выставлять, по дефолту там вообще нету ограничения
Eugen
а чем вызвана необходимость выставлять, по дефолту там вообще нету ограничения
Я просто значения Арк выставляю не дефолтные. На Арк выделяю 100гб из 128
Eugen
Много на чтение машина отдает
George
Народ, подскажите сколько метадату на Zol сделать? И главное сколько пользуюсь не пойму зачем она вообще нужна))
Rtfm, без чтения меты получить доступ к блоку с данными нельзя (метаданные, в частности, и говорят где для файла лежит конкретный блок на диске), так что если пытаетесь что крутить без углубления в устройство - мету зарезать нельзя в arc.
Eugen
Rtfm, без чтения меты получить доступ к блоку с данными нельзя (метаданные, в частности, и говорят где для файла лежит конкретный блок на диске), так что если пытаетесь что крутить без углубления в устройство - мету зарезать нельзя в arc.
Но тут закономерный вопрос, если арк где то 85% от общего обьема,зфс сам настроит количество меты адекватно или надо его править, и если да то сколько ему задать?
Sergey
Ну подскажите, сколько на данный сервер нужно ставить оперативки? Сейчас 47 гигов, из них юзерским софтом занято примерно 10. (видеорегистратор, оснавная нагрузка на запись)
Станислав
Ну подскажите, сколько на данный сервер нужно ставить оперативки? Сейчас 47 гигов, из них юзерским софтом занято примерно 10. (видеорегистратор, оснавная нагрузка на запись)
Раз основная задача запись, то потребности в большом arc (кеш на чтение) не нужен. В таком случае нужно отталкиваться от того, какое количество данных пишется за 5 секунд. Я бы умножил эту цифру на 2. Плюс в памяти можно держать метаданные, их количество зависит от размера блока в хранилище. Не помню, как там рассчитывается, но, как мне кажется, для видеорегистратора нужно установить блок в 1М и не париться с этим подсчётом. Не так много для метаданных нужно
Nikita
Коллеги, если ли возможность средствами zfs передать файловую систему с пула с включенным feature@large_dnode на пул с выключенным?
Vladislav
Стопнуть самбу. Примонтировать на запись пул и сменить на нужные права, смена пула в RO. Потом старт самбы
Vladislav
Тогда мемдиск или нуллффс с нужными правами файлов
Vladislav
И что? Почитайте
Vladislav
Nullfs
Vladislav
В Линукс есть ещё тмпфс
Vladislav
в самбе есть возможность сделать RO разделы
Vladislav
и какие там права на чтения?
Vladislav
тогда остается NFS+ZFS+nullfs
Combot
Mila Novikovaа has been banned! Reason: CAS ban.
DOK ꧁꧂
Подскажите плиз срочно. Второй ждиск с zfs был примонтирован в /mnt/sdb7 Сегодня его вытаскивали для осмотра. Поставили его обратно а его нет. В disks его видно как sdb2 но zfs его не примонтировала куда надо) Как его примонтировать?
DOK ꧁꧂
Zfs mount?
Art
Zfs mount?
zpool import
DOK ꧁꧂
zpool import
Import или add?
DOK ꧁꧂
Импортировать весь диск или отдельные части?
Art
Import или add?
add это добавить ещё один диск в пул
Art
Import или add?
если у вас был пул из одного диска, и вы его вытаскивали, то теперь раз он не виден, то надо импорт пула сделать
DOK ꧁꧂
Импортировал. Все норм вроде. Даже примонтировался куда надо
Δαρθ
а вот интересно, есть ли вариант забутить ядро линукса с zfs без initramfs. аргумент ядру может какой?
Δαρθ
А где ядро будет располагаться?
где ядро (и инитрамфс тоже) это забота бутлоадера )
Δαρθ
я имел в виду чтобы /root на openzfs монтировался без юзерспейсного инитрамфса
Sergey
я имел в виду чтобы /root на openzfs монтировался без юзерспейсного инитрамфса
Можно, если сможете обеспечить возможность загрузки модуля zfs
Sergey
хотя не получится
Vladislav
я имел в виду чтобы /root на openzfs монтировался без юзерспейсного инитрамфса
https://openzfs.github.io/openzfs-docs/Getting%20Started/Ubuntu/Ubuntu%2020.04%20Root%20on%20ZFS.html
Δαρθ
Можно, если сможете обеспечить возможность загрузки модуля zfs
оказалось что вкомпилировать зфс в ядро не так уж и сложно (что и сделал), то есть без модуля а прям сразу :)
Sergey
не знал, что это поддерживается
Δαρθ
очень круто поддерживается кстати. конфигуру надо сказать где лежат сорцы ядра (2 раза). после чего в menuconfige появляется галочка 'openzfs'. и собсно на этом всё )
Δαρθ
https://openzfs.github.io/openzfs-docs/Getting%20Started/Ubuntu/Ubuntu%2020.04%20Root%20on%20ZFS.html
я ваще сторонник без initramfs жить. пока что единственное место где я его держу это там где mdraidы. во всех остальных случаях (правда без рута на openzfs) получается без него (в случае если я ядро свое собираю ессно, иначе -- не парюсь)
Δαρθ
и в убунте вообще трындец с ним -- даже дрова satы в инитрамфс лежат (модулями), без него оно даже сата-винт не увидит
Ivan
в чем польза этих приседаний ?
Δαρθ
ну например купил ноут, а в ём 21.10 не работает с подсветкой, нужно новое ядро
Δαρθ
а раз руками ядро собирать, чоб и не вкомпилировать openzfs )
Δαρθ
и чоб не избавиться от initramfs
Andrii
зачем такой оффтоп в зфс чате? ) не лучше спросить в яблокофон чате?
George
оффтоп сразу же после вступления, последнее предупреждение и в бан
Andrii
вообще заходить и писать сразу оффтоп - кандидат в бан
Alex
оффтоп сразу же после вступления, последнее предупреждение и в бан
Можно не ждать. Они сегодня по всем чатикам, с женскими никами, и вопросами "а правда что всё плохо, и будет ещё хуже"? И у всех сегодняшние фотки на аватарах.
The
Здравствуй, чатик. Есть тут задача: реплицировать полный инкрементальный список снапшотов из пула A в пул B. Я правильно понимаю, что мне придётся городить портянки? Потому что zfs send -cP -R -I | zfs receive такого, по-видимому, не может.
Vladislav
во FreeBSD есть rootFS on ZFS