Станислав
ext4 тоже кеширует в оперативке)
Fedor
Минималки у зфс вроде где-то прописаны были
Fedor
В голове цифры в 2 или 4 гб крутятся
Станислав
Думаю будет норм. У меня есть две виртуалки, в которых всего оперативки гиг, там даже работает прокси на nginx и одна страничка отдается.
Artem
Там 6МБ/с скорость записи, какая вообще нафиг разница? 😂
Станислав
root@b:~# free -h
total used free shared buff/cache available
Mem: 976Mi 531Mi 296Mi 0.0Ki 149Mi 310Mi
Swap: 2.0Gi 26Mi 2.0Gi
root@b:~# uptime -p
up 14 weeks, 3 days, 5 hours, 59 minutes
14 недель потому, что я вовремя не оплатил))
central
Aleksandr
Zfs внутри вм?
тоже поставил zfs на ВМ для деупликации, под nextcloud, 2 года, полёт нормальный. А чо не так то?
Aleksandr
central
Pavel
central
А душит zfs по оперативе штука на любителя если нужна производительность какая никакая производительность
central
Pavel
Да я не к тебе. К тому кто просил почитать
Ivan
Aleksandr
и? и где тут написано что не рекомендуется ставить внутри ВМ?
Pavel
и? и где тут написано что не рекомендуется ставить внутри ВМ?
There are countless warnings against using hardware RAID cards with TrueNAS. ZFS and TrueNAS provide a built-in RAID that protects your data better than any hardware RAID card. You can use a hardware RAID card if it is all you have, but there are limitations. First and most importantly, do not use their RAID facility if your hardware RAID card supports HBA mode, also known as passthrough or JBOD mode (there is one caveat in the bullets below). When used, it allows it to perform indistinguishably from a standard HBA. If your RAID card does not have this mode, you can configure a RAID0 for every disk in your system. While not the ideal setup, it works in a pinch. If repurposing hardware RAID cards with TrueNAS, be aware that some hardware RAID cards:
• Could mask disk serial number and S.M.A.R.T. health information
• Could perform slower than their HBA equivalents
• Could cause data loss if using a write cache with a dead battery backup unit (BBU))
Pavel
На скрине написано что для использования всех фич лучше распотреть вместо рейд контроллера
Aleksandr
central
Да хватит фейспалмить, а рейд контролер как раз и отвечают на вопрос
central
Хотя в вм вы можете включить кеш что и без zfs может данные похерить
central
Плевать zfs реальный или виртуальный процессор да хоть картофельный, главное чтобы дисковая подсистема не врала об том что данные записаны. А то гипервизор отчитался о том что данные записаны реально они не записаны и тут у вас все крашнулось и приехали
Aleksandr
Aleksandr
в общем ясно-понятно, что ни у кого нет таких рекомендаций по поводу zfs в ВМ
Roman
Roman
Roman
Потому что рекомендаций "не используй в ВМ, это гарантированно убъёт данные" - нет.
Станислав
Подскажите, пожалуйста, кто-нибудь пользовался ZFS на Threadripper? Есть ли подводные камни?
Интересует по большей части Threadripper 1950x (16 ядер, 32 потока)
Vladislav
ivdok
Привет, есть вопрос по релизу 2.2. На похорониксе читаю:
The Linux container support for OpenZFS 2.2 includes IDMAPPED mounts in the user name-space, OverlayFS support, and Linux namespace delegation support.
Но насколько я помню, докер и openebs-zfs и раньше могли нарезать тома для контейнеров. Что этот релиз приносит нового?
George
George
ivdok
Спасибо!
Georg🎞️🎥
Привет, запамятовал, кэшировать потоковое чтение в принципе , какие команды вбить ? Чтобы он в arc и arc l2 это делал ? Спасибо 👋👋
Vladislav
George
George
George
Arc по дефолту всё кешит
Georg🎞️🎥
Станислав
Я на эпиках его использовал
В общем сомнения у меня возникли потому, что в Threadripper по сути реализация NUMA между двумя/тремя/четырьмя процессорами на одном текстолите.
Вот так выглядит 16-ядерная модель (1950x)
Vladislav
Станислав
Получается, что у каждого блока по 8 ядер прямой доступ только к двум каналам памяти. Если модуль с 24-32 ядрами, то другие два блока вообще не имеют доступа к памяти.
central
Vladislav
Vladislav
Ilia
У эпиков все ядра через контролёр, там интерНУМА формальная
Станислав
А тут не важно, кто отвечает. Суть в скорости обмена данными - она страдает, если блоку нужен доступ к оперативной памяти, подключенной к другому блоку
Vladislav
"What that essentially means is that there will be different memory latencies depending on which die needs data from memory that can be attached to that die or another die on the fabric."
Vladislav
Они это исправили со следующего поколения
Vladislav
Vladislav
Это про первое поколение
Egor
я тут подумал: а что если собрать пул страйп на очень быстрых nvme-накопителях, и чтоб их было очень много (24+)... Там же явно скорость записи и чтения будет выше чем в оперативке, и т.о. она будет таким буфером который будет замедлять работу всего массива... Как интересно такой странный конфиг правильно на zfs делать?
Vladislav
Ilia
Georg🎞️🎥
Vladislav
Georg🎞️🎥
Georg🎞️🎥
Egor
Под какие задачи такое ?
да это так, теоретические размышления.. Очень быстрый доступ к данным в БД например, или рандомный доступ к файлам
Станислав
Да, я уже тоже нашел в чём разница. У Эпика первого поколения 8 каналов памяти, по 2 на каждый блок. А в рипере всего 4 канала, по 2 на 2 блока.
Georg🎞️🎥
Dmitry
Всем привет! Собираюсь материнку, проц и загрузочный диск в домашнем сервере с proxmox менять. Есть 2 подключенных zfs пула. Как лучше сделать? Резервные копии данных с пулов - само собой лучший вариант. А как с существующими пулами? zfs import ?
𝚔𝚟𝚊𝚙𝚜
Привет с сербского Хайлоада
@gmelikov и @kvaps ;)
Sergey
Посоны, а можно как-то настроить какой-то таймаут, чтобы при засуспенженом (из-за недоступного диска) пуле, процесс, в котором выполняется некоторая операция (например, zfs create testpool/testfs) не повисал в ожидании исправления проблем, а ждал таймаут и выплевывал ошибку? Чесслово, много перекопал, и не вижу решения
Sergey
поскольку процесс не повисает намертво, а доводит операцию до конца, как только пул будет починен - можно сделать вывод, что он делает ретраи. но где бы ограничить их количество
Georg🎞️🎥
Друзья , привет. Не выжирает весь кэш …arc который … Хотя данные гоняются … а префетч должен же кэшировтася ? Это только на l2 не идет же по умолчанию ?