George
или даже - озу
Arseniy
или даже - озу
Ну, ОЗУ с ЕСС, а проблема только с одним пулом. Есть ещё 3 пула, но справедливости ради, они действительно подключены к другим контроллерам....
Alexey
George
Nik
smr?
Arseniy
smr?
Нет, wd Ultrastar HC320 8Tb, cmr
Arseniy
Предварительно, виноват контроллер. К сожалению, пока возможности проверить контроллер нет. Остаюсь так. Заказываю новый, ставлю. С этим буду разбираться в опытной сборке для экспериментов.
Кстати, вопрос не совсем по теме, но вдруг: какой HBA-контроллер порекомендуете сейчас для подключения 16 sata? LSI-9300, LSI-9400, LSI-9500?
И не смог понять разницу между LSI-430 и LSI-9300
https://aliexpress.ru/item/1005007448936708.html?sku_id=12000040796998412&spm=a2g2w.productlist.search_results.3.6d6369a43dg9Vz
https://aliexpress.ru/item/1005008943477032.html?sku_id=12000047297724556&srcSns=sns_More&businessType=ProductDetail&spreadType=socialShare&tt=MG&utm_medium=sharing
Чтоб не флудить по железу, можно ответить в ЛС или в SDS_Flood. Спасибо
𝚜𝚎𝚗𝚜𝚎𝚖𝚊𝚍
день добрый
имею сервак для логов с конфигом draid2:8d:36c:1s-0
что-то он стал у нас люто тормозить на запись, сислоги постоянно висят в D, очередь растёт, уменьшил нагрузку в 3 раза, не помогло никак, recordsize c 256k пробовал и 1М и 128к, меняется только compressratio
по сети прилетает 60М, на диск по iostat пишется 10М, но actual writes 200-600M, чего на аналогичных серверах с lvm вообще нет
то есть он плотно что-то пишет, на чтение нагрузки при этом вроде нет
по иотопу на первом месте txg_sync (70%+ io!), увеличил тайминг с 5с до 15, помогло, но не особо
и куча тредов
z_wr_int
z_wr_iss
не подскажете, что можно ещё посмотреть, подтюнить, куда копать?
А у вас как прогресс?)
░▒▓
Nikita
А у вас как прогресс?)
увеличил время синка и уменьшил recordsize, немного помогает
пытаюсь оптимизировать нагрузку, чтобы не писало кучу мелких файлов.
пока не очень понятно, что можно затюнить в syslog-ng, для оптимизации записи в zfs
Alexander
Добрый день, не подскажите лучшие настройки для Intel Optane 1600x, 118Gb, я его буду использовать под базу данных медиа серверов Plex, Emby, Jellyfin, а proxmox, в инернете удалось найти такой список параметров, они подойдут или можно что-нибудь изменить?
zpool create -o ashift=12 -O compression=lz4 -O atime=off -O xattr=sa -O recordsize=8k tank /dev/nvme0n1
Alexey
Нужно уточнить насчёт recordsize, может побольше...
Vladislav
Vladislav
Потом можно поиграться с буферизацией этих запросов прежде чем складывать их на ZFS
Arseniy
Господа, какие, на ваш взгляд, могут быть предпосылки, чтобы raidz1 внезапно сразу по всем 3 дискам оказался с ошибками?
Проблема решена. Причина - перегрев контроллера. Сервер домашний, переехал в более холодное помещение, из-за чего вентиляторы передней панели стали работать максимум на 30% оборотов, хотя раньше в среднем работали на 70%.
Есть 5 пулов, и только этот единственный пул был подключен всеми дисками к этому контроллеру. Т.к. у остальных пулов (зеркала) было подключено только по 1 диску, во время scrub ошибки устранялись.
Поставил дополнительный обдув контроллера и проблема ушла.
George
опять ваши zfsы данные бьют! https://t.me/yetanotherit/52
Free
Да, интересно было бы еще посмотреть размеры после удаления одного из снапов.
Но суммарно два снапа должны были бы как раз все изменения учесть?
Вот за пару месяцев повторил подобное.
Состояние с двумя снапшотами:
root@S08 ~# zfs list; date
NAME USED AVAIL REFER MOUNTPOINT
t4.6s 3.14T 385G 96K /t4.6s
t4.6s/331 3.09T 385G 1.98T /t4.6s/331
t4.6s/331@000 64.5G - 2.11T -
t4.6s/331@001 68.1G - 2.12T -
t4.6s/empty 96K 435G 96K /t4.6s/empty
Удаляю второй:
root@S08 ~# zfs destroy t4.6s/331@001
root@S08 ~# zfs list; date 130
NAME USED AVAIL REFER MOUNTPOINT
t4.6s 3.13T 387G 96K /t4.6s
t4.6s/331 3.02T 387G 1.98T /t4.6s/331
t4.6s/331@000 1.04T - 2.11T -
t4.6s/empty 96K 437G 96K /t4.6s/empty
Затем первый
root@S08 ~# zfs destroy t4.6s/331@000
root@S08 ~# zfs list; date
t4.6s 3.01T 516G 96K /t4.6s
t4.6s/331 1.98T 516G 1.98T /t4.6s/331
t4.6s/empty 96K 566G 96K /t4.6s/empty
После того, как прочистились все метаданные - окончательное свободное место увеличилось на 1ТБ+
root@S08 ~# zfs list; date
NAME USED AVAIL REFER MOUNTPOINT
t4.6s 2.04T 1.47T 96K /t4.6s
t4.6s/331 1.99T 1.47T 1.99T /t4.6s/331
t4.6s/empty 96K 1.52T 96K /t4.6s/empty
Из интересного: REFER при этом и каждого из снапшотов, и одного из них (после удаления второго) - 2.11T
Okhsunrog
Есть тут пользователи Arch Linux? Хочу поделиться установщиком, который сейчас активно разрабатываю, может, кому пригодится
https://github.com/okhsunrog/archinstall_zfs
Denis
Denis
Okhsunrog
ZFSBootMenu и ядро на zfs разделе? Красота :)
Ага)
ещё поддержка нескольких Boot Environments.
Можно ставить несколько операционных систем в один пул, и они не будут мешать друг другу
добавил для этого такую вещь
https://github.com/okhsunrog/archinstall_zfs/blob/main/archinstall_zfs/assets/zed/history_event-zfs-list-cacher.sh
Okhsunrog
т.е. у меня сейчас на компе:
❯ zfs list
NAME USED AVAIL REFER MOUNTPOINT
novafs 964G 505G 192K none
novafs/arch0 519G 505G 192K none
novafs/arch0/data 367G 505G 192K none
novafs/arch0/data/home 367G 505G 278G /home
novafs/arch0/data/root 40.3M 505G 36.3M /root
novafs/arch0/root 134G 505G 121G /
novafs/arch0/vm 18.8G 505G 18.8G /vm
novafs/archold 227G 505G 192K none
novafs/archold/data 143G 505G 192K none
novafs/archold/data/home 141G 505G 119G /home
novafs/archold/data/root 1.81G 505G 1.81G /root
novafs/archold/root 83.7G 505G 83.7G /
novafs/temp_home 123G 505G 62.0G /mnt/temp_home
novafs/tmp_zfs 7.08G 505G 7.08G /tmp_zfs
novafs/tmp_zfs_home 87.3G 505G 87.3G /home/okhsunrog/tmp_zfs
когда загружаюсь в arch0 - он монтирует свои датасеты, когда загружаюсь в archold - он тоже, только свои монтирует
Okhsunrog
У меня там много интересных решений. Есть сборщик образов, как тестовых минимальных, так и полных, с нужным ядром, dkms либо с готовыми модулями из archzfs. Сборка образов как вручную, так и автоматическая при релизе.
Есть валидация совместимости версии zfs и linux, защита от дурака. Чтобы пользователь не смог поставить Linux 6.16 и zfs-dkms вместе
Sergei
Ubsefor
Андрей🧛
Георгий
Коллеженьки, привет, ST20000NM007D подойдет для zfs? характеристики смотрел, там вроде CMR
Alexander
Alexander
Диск CMR а подойдет ли вам, не известно. Я бы еще поискал его в отчетах backblaze
Eugen
Привет, вопрос может показаться странным, но прошу отнестись с пониманием)
Если создать пул stripe с ramdisk-а и ssd. В теории это повысит производительность на запись? (О том что пулл сгинет после ребута сервера не писать, это не важно в этом случаи).
Fedor
Проще сразу ссд на лвм имхо, если нужна производительность. Но лвм имеет узкие места.
Fedor
Либо сразу рамдиск, если места хватит. Зфс работает как правило со скоростью самого медленного диска (ребят, поправьте, пожалуйста, если ошибаюсь)
жюн
В страйпе скорость, вродь как - ~сумма скоростей, но самый медленный диск будет, конечно, тянуть вниз
жюн
Хотя мб я это и придумал откуда-то... В интрнеах пишут, что в самый тормознутый vdev упор будет
жюн
https://www.openoid.net/demonstrating-zfs-pool-write-distribution/?utm_source=chatgpt.com
Вот древность какая-то от 2017
Мужик пишет, что на распределение записей влияет только свободное место на vdev'ах
Vladislav
У меня почему-то ощущение, что ZFS всё равно пишет страйпом и ждёт пока весь страйп закончит писаться
Vladislav
Это можно в теории проверить на ВМ-ах ограничив одному из дисков количество IOPS
жюн
Vladislav
Eugen
Eugen
До этого использовал просто zfs тюненый, и в принципе было ок. Но если можно максимально ускорить то было бы отлично)
жюн
>для иопсов
>Iscsi
жюн
Чтож такое за временные файлы, что их так много и вот обязательно надо записать, но можно и потерять...
sexst
sexst
Если без шуток - я такую задачу для виде кэша метрик кучи миллионов портов коммутаторов делал. В итоге плюнул и жахнул zram диск
George
Eugen
Для кибер кафе короче. Там сохранность данных с предыдущего сеанса наоборот вредна)
Fedor
Текущей производительности дисков не хватает?
Fedor
Айскази так и так жестко просадит перфоманс
Fedor
Тогда будто лучше докупить дисков для перфоманса, если действительно будет нехватать
Станислав
Amix
Amix
и снапшортиков
Fedor
В 2.4 rc1
Uncached IO: Direct IO fallback to a light-weight uncached IO when unaligned (#17218)
Это сильно аффектило?
Fedor
https://github.com/ankek/awesome-zfs
Okhsunrog
Okhsunrog
Okhsunrog
https://habr.com/ru/articles/942396/
Δαρθ
Δαρθ
рейды в бтрфс чинят потихоньку, говорят уже рейд5 починили (а рейд0 и 1 всегда работали)
Denis
Roman
Мета в raid1 или raid1c3, дата в raid5|6 и будет норм.
Причём для raid5 закрыли writehole уже достаточно давно.
Roman
У них в доке, кстати, это описано.
Denis
zfs dRAID всеравно круче )
Denis
Roman
странно, что бутер всё пространство восстанавливает, а не данные фактические.
Что за тесты, какие версии?
Denis
Fedor
скрин из chatgpt.
Любая информация, сгенерированная нейросетями, не приветствуется