Georg🎞️🎥
хочу больше)
Чтобы что ? Торент скидывать быстрее или что ?🤔😳
Georg🎞️🎥
да
4-5 гиговый файл должен бодро литься так то 😱куда быстрее то , опять таки для просмотра гигабита тоже за глаза , скорость потока у видео подобных дно )
Georg🎞️🎥
были видосы как по 10-ке гоняли файл. впечатлило.
4 диска hdd такую скорость не выдадут
Rufat
4 диска hdd такую скорость не выдадут
это у меня 4. у них не помню, надо пересмотреть.
Roman
4 диска hdd такую скорость не выдадут
Просто собирай дома нормальный массив и 10г утилизируешь.
George
чтобы не гадать просто побенчите сеть через какой нибудь iperf :)
A
да хотя бы 110-120
обычную вторую сетевую карту на 1G можно поставить и сделать bonding c round robin и будет 200
A
да !
A
mode balance-rr
A
еще варианты - 1)раздать диск по iscsi и использовать multipath. 2)SMB Multi-Channel
Roman
nvme multipath лучше.
Vladislav
nvme multipath лучше.
Я так и не понял как его делать, ибо в доках нормально только для spdk описано, для модуля ядра нихера нет
Алексей
Ребята, всем привет! У меня есть идея создать серию небольших заметок по сравнению zfs c bcachefs чтобы в последствии скомпилировать из них полноценную статью на хабр. С разрешения администрации я выкладываю сюда ссылку на первую в серии заметку, просьба закидать тряпками до публикации полного цикла на хабре. Жду конструктивную критику/вопросы/ошибки. Спасибо
Алексей
https://telegra.ph/Vybor-fajlovoj-sistemy-dlya-storj-12-28
Алексей
тогда уж и бтрфс тоже
В моей задаче он аутсайдер, но если у него есть возможность выносить мету, то я добавлю его в сравнение. Но кажется там такого нет ?
Δαρθ
для ссд еще бы и трим делать вначале, а лучше сразу blkdiscard
Δαρθ
версии ядра почемуто разные ещ
Алексей
Алексей
Да
Спасибо
Vladislav
Trim не спит
Δαρθ
Разве это важно при разметке заново?
ссд ничего про разметку не знает он тупо секторы читает-пишет
Алексей
версии ядра почемуто разные ещ
Бкеш компилится в 6.7. Я к стыду своему не умею его скомпилить в другом ядре
Δαρθ
и еще хз зачем вдрочь fio вначале, имхо достаточно дропнуть кеши (/proc/sys/vm/drop_caches)
Vladislav
fio погоняй вместе с параметрами от Виталия
Δαρθ
Не понял
что именно?
Алексей
значит zfs скомпилируй в 6.7 хз умеет ли оно уже
Нет. Максимум в 6.6 компилируется
Алексей
что именно?
Вообще всего сообщения не понял про вдрочь фио вначале
Δαρθ
Нет. Максимум в 6.6 компилируется
тогда хотя бы 6.6 хтя все равно остается вероятность что чтото вне fs будет поразному влиять в разных ядрах
Δαρθ
Вообще всего сообщения не понял про вдрочь фио вначале
зачем сначала фио а потом вычитка под таймер?
Алексей
зачем сначала фио а потом вычитка под таймер?
Суть задачи изначально получить максимально быстрый обход файлов
Алексей
Δαρθ
Докучи)
ну я и говорю если задача с холодными кешами вычитать то их можно тупо сбросить
Алексей
Δαρθ
кроме того фио делался не в зфс -- а значит тут уже есть нечестность бкашефс юзает общие дисковые кеши линукса а у зфс свой велосипед
Δαρθ
Каждому тесту предшествовал ремаунт и дроп кешей
тогда тем более смысла в фио невижу. разве что ссду засрать кеши записи?
Δαρθ
если он в хдд делался -- вообще смысла 0
Алексей
Фио просто показывет общую производительность фс на одиночном диске
Алексей
после фио делался ремаунт и сброс кешей?
Каждому тесту предшествовал ремаунт и сброс кешей
Алексей
Абсолютно каждому
Vladislav
Про параметры
Ещё, можно вот эти приседания повторить https://www.phoronix.com/review/bcachefs-benchmarks-linux67/2
Δαρθ
Каждому тесту предшествовал ремаунт и сброс кешей
тогда смысл делать фио только засрать кеш ССД, который очевидно никак не рулится снаружи
Nikita
https://telegra.ph/Vybor-fajlovoj-sistemy-dlya-storj-12-28
Мелочи, но... "Поэтому при использовании больших составных или raid массивов устройство с метаинформацией должно быть как минимум обладать избыточностью, например, зеркалировано." во первых немного не по-русски, во вторых, я бы уточнил, что "обладать избыточностью, не меньшей, чем у массива".
Nikita
Не обязательно)
да понятно, что special и на stripe развернуть можно)
Nikita
Nikita
Занятно, попробовал найти хоть какие-то рекомендации по поводу special device в документации, а нашел только форумы и в лучшем случае issue на гите. А был уверен, что там написано то, что я подправил выше. Видимо с ZIL-ом перепутал.
LordMerlin
Я тебе вроде скидывал как на xfs мету выносить
Алексей
Roman
Чет там андерграунд какой-то
Указать раздел для меты при создании фс - это андеграунд?
Vladislav
Чет там андерграунд какой-то
-l logdev=device,size=size Это заняло некоторое время... To mount the XFS file system so that it uses the external journal, specify the -o logdev=device option to the mount command. Но неудобно пиздец
Алексей
Вынос меты на каком то одном форуме нашел, но там чет очень мутно
Vladislav
Так это журнал только
А больше ничего нет по мете на мэне
Vladislav
ALLEX
пацаны, можно ли примонтировать сторонний ssd с zfs для доступа к файлам? Потом этот диск отключить.
Vladislav
Можно
mikhail
пацаны, можно ли примонтировать сторонний ssd с zfs для доступа к файлам? Потом этот диск отключить.
zpool import - покажет имена пулов. zpool import -f ИмяПула - принудительно импортирует его
Василий
Вопрос про мету. Есть ли возможность вынести мету и смолблок на разные зеркала? Хочу под мету и смол блок иметь разные диски с разными характеристиками.
Василий
Ок
sweetiefox
Всем доброго времени суток. Ищу помощи специалистов по тюнингу ФС и умению сделать "все хорошо". Из группы Storage Discussions подсказали написать сюда. Дано сервер - Ubuntu 20.04 LTS, ppc64le 80 x 3.49GHz, 512GB RAM Диски 2 x 16TB 3.5" HDD SATA WD 1 x 1.6TB AIC SSD NVMe PCIe x8 Samsung 2 x 128GB M.2 SSD NVMe PCI4 x4 Samsung + (маленький диск под OS но он не в счет, его не трогаем) Надо Собрать дисковую подсистему для 20 контейнеров (это максимум), рабочий объем данных что нужен в горячем пуле не превышает 1TB, скорости All-Flash не ожидаются, по IOPS требования очень низкие. Возможно доустановить несколько NVMe дисков при необходимости. А также полностью затюнить все критические параметры. Пока в текущем тестовом стенде сделано так, zfs последняя версия из репо. RAID1 из 2 HDD средствами zfs, 1.6TB под L2ARC, 1 диск на 128GB по ZIL SLOG, 1 диск на 128GB под метаданные (special device). Очевидно что нужен глубокий тюнинг всего этого дела.
sweetiefox
В основном по iostat операции будут 80-90% read / 10-20% write, типовой рабочий датасет примерно 1TB. Просадки из-за промахов кэша не критичны, ситуаций с волнообразным обновлением данных по rand крайне редки, обычно контейнеры по чуть чуть подсасывают нужные данные в свой рабочий датасет +/-, но даже если будет просадка по IOPS - то она не фатальна, ибо SLA на это нету - клиента это не важно.