Nick
George
Nick
George
George
если только кешем решать - то увы только увеличивать его размер и регулярно прогревать, если всё же вымывается
Nick
real 2m18.759s
user 0m2.516s
sys 0m11.907s
~ 15 минут спустя предыдущего раза.
в raidz1 диска 3 по 10 терабайт.
Linux 5.4.0-96-generic 2.1.1-0york0~18.04
в процессе - du ест примерно 11% проца, иовейт подрастает до 8-12%
Nick
ARC size (current): 91.1 % 14.2 GiB
Target size (adaptive): 91.0 % 14.2 GiB
Min size (hard limit): 6.2 % 995.1 MiB
Max size (high water): 16:1 15.5 GiB
Most Frequently Used (MFU) cache size: 97.4 % 7.6 GiB
Most Recently Used (MRU) cache size: 2.6 % 206.9 MiB
Metadata cache size (hard limit): 100.0 % 15.5 GiB
Metadata cache size (current): 86.2 % 13.4 GiB
Dnode cache size (hard limit): 75.0 % 11.7 GiB
Dnode cache size (current): 23.3 % 2.7 GiB
Nick
но вообще в теории - это проблема количества файлов и вымывания кеша или чего-то еще? Кеш - метадата или дноде кеш сайз?
George
George
Но 86% занятой меты может быть немного на грани забитости. Да, больше файлов - больше чтения меты - больше меты в кеше
Nick
ок, понял, спасибо
Nick
в процессе похоже
Most Recently Used (MRU) cache size падает
а Metadata cache size (current) - растет
nikolay
George
В плане меты интересно почитать как рекомендуют юзать lustre, у неё мета относительно централизована и не особо скейлится https://www.nas.nasa.gov/hecc/support/kb/lustre-best-practices_226.html
nikolay
nikolay
George
В общем без условий по железу и тестов о цифрах не поговорить
George
nikolay
George
George
зеркало только размером диска увеличить можно через замену. Тут всё как у обычных vdevs
nikolay
nikolay
George
Выше написали что только заменой дисков на более объемные? Я запутался
ну миррор безотносительно zfs именно как набор 2+ дисков только через увеличение объёма диска сам можно увеличить.
В общем zfs с миррорами расширяется прекрасно через vdevs, как и с raidz
Для raidz такое менее удобно т.к. он уже теоретически расширяем через добавление в него дисков, и raidz vdev обычно состоит из бОльшего количества дисков чем 2-3 в мирроре
Δαρθ
Δαρθ
повторил в зфс (те же диски в раидз2) -- 0.5с и 0.3с
Δαρθ
но это конечно скорее всего потому, что файлы на диск записались несколькими транзакциями и компактно, тк создавал их без синка после каждого тупо башем в цикле
Δαρθ
если они создавались в разное время и долго -- то скорее всего метадату распионерило рандомно по всему диску изза чего и тормоза
George
George
Nikita
Коллеги, подскажите оптимальное число дисков для массива raidz? есть 12 дисков. нужно сделать массив для хранения резервных копий snapshot-ов с других серверов. насколько я помню, обычно формула была примерно 2n+p, где n-целое, больше 1, а p - число дисков для parity, т.е. на моих 12-ти можно, к примеру, сделать raidz2 или raidz3+1 диск spare. З.Ы. сервер будет работать не круглосуточно, а включаться только для приёма снимков.
George
Коллеги, подскажите оптимальное число дисков для массива raidz? есть 12 дисков. нужно сделать массив для хранения резервных копий snapshot-ов с других серверов. насколько я помню, обычно формула была примерно 2n+p, где n-целое, больше 1, а p - число дисков для parity, т.е. на моих 12-ти можно, к примеру, сделать raidz2 или raidz3+1 диск spare. З.Ы. сервер будет работать не круглосуточно, а включаться только для приёма снимков.
формулы по количеству дисков нет, но для вычисления полезного объёма относительно используемого размера блока стоит использовать эту таблицу https://docs.google.com/spreadsheets/d/1tf4qx1aMJp8Lo_R6gpT689wTjHv6CGVElrPqTA0w_ZY/edit?pli=1#gid=2126998674
Evgenii
George
вопрос производительности стоит отдельно, 1 raidz vdev на запись будет иметь iops самого медленного диска в нём
Nikita
Nikita
Или при приёме snapshot существенную роль играет random iops?
Evgenii
Evgenii
George
George
Δαρθ
а правду говорят что у zfs луа в ядерном модуле?
George
Δαρθ
а что оно там делает? )
Δαρθ
tspok
Я эту телегу полдня катал :с
tspok
В общем, установил ZFS на рут убунты 20.04 по официальному гайду, теперь не могу ни загрузить ядро от 18.04 несмотря на установленный zfs-dkms, ни обновить меню груба (файл обновляется, а меню всё равно старое). Халп. Старое ядро загрузить нужно, обновить меню груба - не очень.
Ivan
Ivan
сделай dpkg-reconfigure нужного ядра и обнови initramfs на всякий
tspok
Наличие файликов я не проверил, но отрепортил что всё хорошо. А вот проверить initramfs я забыл, надо перепроверить.
tspok
Взлетело, спасибо!
Δαρθ
кстати а без инитрамфс с рут-зфс загрузиться совсем никак? даже если зфс вкомпилена в ядро, а не модулем?
Nick
Art
https://www.qnap.com/en-us/product/ts-h2490fu
Art
central
Эпик на один только zfs не многовато?
Combot
Вика has been banned! Reason: CAS ban.
Vladislav
Evgenii
https://www.qnap.com/solution/qnap-zfs/en-us/
Есть идеи как они это делают? (они используют ZFS.)
Evgenii
Возможно собирают зеркало из локальных и удаленных дисков? Или у них свой форк ZFS с каким то слоем в user space?
Evgenii
Ограничения я понимаю.. у них там сетевухи по 40 и 100 гбит внутри стоят.. Мне интересно как это с точки зрения ZFS может выглядеть @gmelikov
LordMerlin
Мож каждую секунду zfs-send?
Vladislav
Evgenii
Мож каждую секунду zfs-send?
тогда у них будет либо latency = 1 секунда в полке за миллион, либо асинхронные реплики с потерей данных, а не реалтайм