Станислав
ext4 тоже кеширует в оперативке)
Fedor
Минималки у зфс вроде где-то прописаны были
Fedor
В голове цифры в 2 или 4 гб крутятся
Станислав
Думаю будет норм. У меня есть две виртуалки, в которых всего оперативки гиг, там даже работает прокси на nginx и одна страничка отдается.
Artem
Там 6МБ/с скорость записи, какая вообще нафиг разница? 😂
Станислав
root@b:~# free -h total used free shared buff/cache available Mem: 976Mi 531Mi 296Mi 0.0Ki 149Mi 310Mi Swap: 2.0Gi 26Mi 2.0Gi root@b:~# uptime -p up 14 weeks, 3 days, 5 hours, 59 minutes 14 недель потому, что я вовремя не оплатил))
Станислав
Zfs внутри вм?
Шифрованный ZFS
Aleksandr
Zfs внутри вм?
тоже поставил zfs на ВМ для деупликации, под nextcloud, 2 года, полёт нормальный. А чо не так то?
Станислав
тоже поставил zfs на ВМ для деупликации, под nextcloud, 2 года, полёт нормальный. А чо не так то?
Якобы не рекомендуют, нужен полноценный контроль над железом и всё такое. Это правильно, но смотря какие цели преследовать
Pavel
где такое написано? вот правда интересно почитать, кто и почему не реагирует
Во всех инструкциях. Но в вашем случае не так критично. Тот же трунас это основное требование к дискам
central
тоже поставил zfs на ВМ для деупликации, под nextcloud, 2 года, полёт нормальный. А чо не так то?
Нерациональное использование оперативной памяти, пару тройку таких вм и вам и 100 гигов окажется мало
Pavel
Прокс к примеру
central
А душит zfs по оперативе штука на любителя если нужна производительность какая никакая производительность
Pavel
Да я не к тебе. К тому кто просил почитать
Aleksandr
Прокс к примеру
и? и где тут написано что не рекомендуется ставить внутри ВМ?
Pavel
и? и где тут написано что не рекомендуется ставить внутри ВМ?
There are countless warnings against using hardware RAID cards with TrueNAS. ZFS and TrueNAS provide a built-in RAID that protects your data better than any hardware RAID card. You can use a hardware RAID card if it is all you have, but there are limitations. First and most importantly, do not use their RAID facility if your hardware RAID card supports HBA mode, also known as passthrough or JBOD mode (there is one caveat in the bullets below). When used, it allows it to perform indistinguishably from a standard HBA. If your RAID card does not have this mode, you can configure a RAID0 for every disk in your system. While not the ideal setup, it works in a pinch. If repurposing hardware RAID cards with TrueNAS, be aware that some hardware RAID cards: • Could mask disk serial number and S.M.A.R.T. health information • Could perform slower than their HBA equivalents • Could cause data loss if using a write cache with a dead battery backup unit (BBU))
Pavel
На скрине написано что для использования всех фич лучше распотреть вместо рейд контроллера
Pavel
и? и где тут написано что не рекомендуется ставить внутри ВМ?
Как писал выше ваш случай не показательный вообще. Многие дистрибутивы предлагают zfs сейчас.
central
Да хватит фейспалмить, а рейд контролер как раз и отвечают на вопрос
central
Хотя в вм вы можете включить кеш что и без zfs может данные похерить
central
Плевать zfs реальный или виртуальный процессор да хоть картофельный, главное чтобы дисковая подсистема не врала об том что данные записаны. А то гипервизор отчитался о том что данные записаны реально они не записаны и тут у вас все крашнулось и приехали
Aleksandr
в общем ясно-понятно, что ни у кого нет таких рекомендаций по поводу zfs в ВМ
Roman
Потому что рекомендаций "не используй в ВМ, это гарантированно убъёт данные" - нет.
Станислав
Подскажите, пожалуйста, кто-нибудь пользовался ZFS на Threadripper? Есть ли подводные камни? Интересует по большей части Threadripper 1950x (16 ядер, 32 потока)
Станислав
Я на эпиках его использовал
Какие-то специфические настройки приходилось делать или без заморочек?
ivdok
Привет, есть вопрос по релизу 2.2. На похорониксе читаю: The Linux container support for OpenZFS 2.2 includes IDMAPPED mounts in the user name-space, OverlayFS support, and Linux namespace delegation support. Но насколько я помню, докер и openebs-zfs и раньше могли нарезать тома для контейнеров. Что этот релиз приносит нового?
Vladislav
тоже поставил zfs на ВМ для деупликации, под nextcloud, 2 года, полёт нормальный. А чо не так то?
Ошибка выжившего. А вообще, если в ВМ напрямую прокинут HBA то особой разницы нет, другое дело, что описывать как это делать для каждой виртуализации проблемно, поэтому проще не рекомендовать
Vladislav
Какие-то специфические настройки приходилось делать или без заморочек?
Оно само прекрасно работает, вроде есть часть параметров которые можно покрутить, но они не завязаны на АМД
ivdok
Есть разные варианты работы с фс у контейнеров, например с помощью renameat можно хитрые штуки атомарно проворачивать. Вот тут и добросили вариантов
Это можно использовать например с ZFS в юзерспейсе? Допустим, прокинуть с хоста девайс, а маунтить и писать из контейнера? Или требуется модуль ядра?
ivdok
Спасибо!
Georg🎞️🎥
Привет, запамятовал, кэшировать потоковое чтение в принципе , какие команды вбить ? Чтобы он в arc и arc l2 это делал ? Спасибо 👋👋
Georg🎞️🎥
prefetch если я правильно помню
Дада … он типа не кэшируется по умолчанию
Georg🎞️🎥
Гугл l2arc_noprefetch
А вот надо что то указывать для arc? Ведь L2 оттуда берет данные ?
George
А вот надо что то указывать для arc? Ведь L2 оттуда берет данные ?
Если ничего не меняли с дефолта, то ничего
George
Arc по дефолту всё кешит
Georg🎞️🎥
Arc по дефолту всё кешит
Отлично … я просто менял значения l2arc и на 0, и на 1 … а что то нифига (((
Georg🎞️🎥
Arc по дефолту всё кешит
Попадание 0,40 :(((
Станислав
Я на эпиках его использовал
В общем сомнения у меня возникли потому, что в Threadripper по сути реализация NUMA между двумя/тремя/четырьмя процессорами на одном текстолите. Вот так выглядит 16-ядерная модель (1950x)
Станислав
Получается, что у каждого блока по 8 ядер прямой доступ только к двум каналам памяти. Если модуль с 24-32 ядрами, то другие два блока вообще не имеют доступа к памяти.
central
Как и у эпиков, как и у ryzen Опять же, это проблемы ОС будут, а не ZFS
Zfs должен поддерживать нуму чтобы не сливать производительность
Станислав
Как и у эпиков, как и у ryzen Опять же, это проблемы ОС будут, а не ZFS
Вот и нет. У Эпиков реализация всё-таки отличается и прямой доступ к памяти есть. Как я понял
Vladislav
Zfs должен поддерживать нуму чтобы не сливать производительность
Разве за это не будет отвечать планировщик?
Vladislav
Вот и нет. У Эпиков реализация всё-таки отличается и прямой доступ к памяти есть. Как я понял
Как ты реализуешь прямой доступ к памяти у 2-х сокетной конфигурации, к примеру?
Ilia
У эпиков все ядра через контролёр, там интерНУМА формальная
Станислав
А тут не важно, кто отвечает. Суть в скорости обмена данными - она страдает, если блоку нужен доступ к оперативной памяти, подключенной к другому блоку
Vladislav
У эпиков все ядра через контролёр, там интерНУМА формальная
Не у первого поколения же https://www.servethehome.com/amd-epyc-7000-series-architecture-overview-non-ce-ee-majors/
Vladislav
"What that essentially means is that there will be different memory latencies depending on which die needs data from memory that can be attached to that die or another die on the fabric."
Vladislav
Они это исправили со следующего поколения
Vladislav
Это про первое поколение
Egor
я тут подумал: а что если собрать пул страйп на очень быстрых nvme-накопителях, и чтоб их было очень много (24+)... Там же явно скорость записи и чтения будет выше чем в оперативке, и т.о. она будет таким буфером который будет замедлять работу всего массива... Как интересно такой странный конфиг правильно на zfs делать?
Georg🎞️🎥
Да, но нет, лишние буферы в RAM значительно тормозят nvme
Zfs как то не шибко весело ворочает ssd 🤷🏻‍♂️
Egor
Под какие задачи такое ?
да это так, теоретические размышления.. Очень быстрый доступ к данным в БД например, или рандомный доступ к файлам
Станислав
Да, я уже тоже нашел в чём разница. У Эпика первого поколения 8 каналов памяти, по 2 на каждый блок. А в рипере всего 4 канала, по 2 на 2 блока.
Georg🎞️🎥
да это так, теоретические размышления.. Очень быстрый доступ к данным в БД например, или рандомный доступ к файлам
БД - это мелкие блоки часто … мне кажется кажется куча памяти больше даст профита 🤷🏻‍♂️типа гиг 700
Dmitry
Всем привет! Собираюсь материнку, проц и загрузочный диск в домашнем сервере с proxmox менять. Есть 2 подключенных zfs пула. Как лучше сделать? Резервные копии данных с пулов - само собой лучший вариант. А как с существующими пулами? zfs import ?
𝚔𝚟𝚊𝚙𝚜
Привет с сербского Хайлоада @gmelikov и @kvaps ;)
Sergey
Посоны, а можно как-то настроить какой-то таймаут, чтобы при засуспенженом (из-за недоступного диска) пуле, процесс, в котором выполняется некоторая операция (например, zfs create testpool/testfs) не повисал в ожидании исправления проблем, а ждал таймаут и выплевывал ошибку? Чесслово, много перекопал, и не вижу решения
Sergey
поскольку процесс не повисает намертво, а доводит операцию до конца, как только пул будет починен - можно сделать вывод, что он делает ретраи. но где бы ограничить их количество
Georg🎞️🎥
Друзья , привет. Не выжирает весь кэш …arc который … Хотя данные гоняются … а префетч должен же кэшировтася ? Это только на l2 не идет же по умолчанию ?