Ivan
так-то лучше uid нормальный использовать. он уникальный в отличие от /dev/sg
ArcticFox
цеплять энкожуры
ArcticFox
и обращаттся к их дискам
ArcticFox
uuid maping к sg/sd есть варианты посмотреть?
Михаил
blkid ?
Михаил
тут вопрос для какой цели тебе это именование
star
Тут есть ютаберы? Кто неть запилите пж подробное видео кто блть эти ваши raidz, и чем они лучше и надежнее обычного рейда?
Vladimir
ну это не сравнение как таковое , а просто вот вам новая система на новом железе и новой FS она супер быстрая
есть одна система с SATA девайсами - ежели интересно, Nvidia DGX-1, в неё воткнуты 4 штуки. А рядом стоит массив с 6ю NVMEe девайсами подключенный по Inifiniband , вопрос юзеров - можно данные хранить на NVME и гнать на DGX-1 по NFS или надо их сначала на локальный SATA SSD перегонять.
Михаил
Смотря какой профиль нагрузки конечно, но у меня был успешный опыт лвм страйп + dmcache и iscsi к клиенту думаю в вашем случае кеш и скази не нужны , но лвм страйп мне понравился
Михаил
Очень равномерно диски загружал и производительность была хороша
Михаил
Памяти не жрёт так как арккеша нет у лвм
Алексей
сохранил, спасиибо
Но там можно придумать и другие варианты
Alex
Да, так и есть. Infiniband просто в режиме Ethernet 100Gb работает.
Есть ещё вариант NFS over ROCE (RDMA) вместо NFS IPoIB.
Vladimir
Есть ещё вариант NFS over ROCE (RDMA) вместо NFS IPoIB.
Пробовал, работает быстрее но не стабильно на нашем железе. Примерно раз в неделю kernel error, и все отваливается.
Shaker
У меня правда iser ( mlx5, connectx-5 )
Shaker
Все стабильно
Vladimir
Дистриб какой ?
NVIDIA DGX Server OS , на основе Ubuntu 20.04., но пробовал на более старой версии. На второй машине тоже убунту. Но дело в фирмваре карточек - разные версии.
Vladislav
У меня правда iser ( mlx5, connectx-5 )
А вы богатые, 100Г версия?
Shaker
А вы богатые, 100Г версия?
Нет, 25G, но ее хватает
Vladislav
Нет, 25G, но ее хватает
Ладно, просто x3 стоит 5-6к и даёт 40Г
Vladimir
что за железо ?
клиент - Nvidia DGX-1, Mellanox ConnectX-4 VPI MCX455A-ECAT x4 сервер - SYS-2029U-TN24R4T, а вот Infiniband карточка там какая-то снятая уже с производства Supermicro, MT27700 Family ConnectX-4 и когда со всем этим делом игрался фирмверы совеременной для неё не было.
Animal
всем привет. мб я затупил )) простой пул состоящий из 2х фалов. если сделать экспорт пула а потом его импорт (по его имени) то выдает - хер, нет такого пула. попытка создать новый пул из этих же 2х файлов говорит "эти файлы уже являются частью пула ИМЯ, используй опцию -f" Ессно если использовать опцию то создастся чистый пул. Сабж - как импортировать такой пул взяд ? )) Спасибо
Animal
попробуй указать id пула
логично но "cannot import '554459960243577731': no such pool available"
Animal
)) да не..не критично. тестовый стенд ))
Animal
лан..чот не то творится... днем на свежую голову посмотрю...
Станислав
Станислав
Человек выше подсказал, как это сделать
Animal
Там в другом загвоздка оказалась...
Δαρθ
насколько бредово показывает du вот тут? $ du -hd1 . 857K ./result 865K ./7z_best 913K ./zip 881K ./zip_best 889K ./7z 4.4M . $ ls result/ $ $ zfs version zfs-2.1.5-r5-gentoo zfs-kmod-2.1.5-r1-gentoo в директориях было ~14 тыщ файлов в каждой, некоторые хардлинки, такое видно после удаления всех файлов
Δαρθ
или реально остаток-директория жрёт место зазря?
Vladislav
снапшоты посмотри
Δαρθ
а причём тут снапшоты?
Vladislav
а ты все-таки глянь
Владимир
и мне не ясно причём тут снапшоты)
Владимир
или реально остаток-директория жрёт место зазря?
так ты посмотри содержимое директории что там кушает
Fedor
Директория вполне может есть место, если в ней много файлов - на все файлы надо создать ссылки А вот что происходит с ней после очистки - надо смотреть уже в реализации ФС
Fedor
Директория как объект в ФС, имеется ввиду
Fedor
Через ls -la будет видно
Fedor
В каталоге выше
Δαρθ
если du —apparent-size то показывает по 2 байта на директорию
Δαρθ
обычно —apparent-size показывает сумму размеров файлов а без — запакованные на диске размеры
Δαρθ
а тут — наоборот как-то
Combot
Tavares David has been banned! Reason: CAS ban.
Dmitriy
Коллеги, доброго вечера никто не сталкивался с адаптацией ZIO для работы zfs на SSD с TLC/QLC NAND с небольшим SLC/DRAM кэшем после заполнения SLC кэша, скорость vdev резко падает - растете латенси и очередь возможно ли адаптировать планировщик под такой сценарий?
Art
Коллеги, доброго вечера никто не сталкивался с адаптацией ZIO для работы zfs на SSD с TLC/QLC NAND с небольшим SLC/DRAM кэшем после заполнения SLC кэша, скорость vdev резко падает - растете латенси и очередь возможно ли адаптировать планировщик под такой сценарий?
сомневаюсь, что такой недостаток железа можно как-то компенсировать... Если только добавить в пул жирный и быстрый ССД в качестве SLOG-девайса ? А как именно вы пишете в пул, что возникает такая проблема? У вас запись 24/7 и на высокой скорости?
Dmitriy
запись не постоянная - поэтому были установлены evo870 1tb
Dmitriy
10гб принимают на нормальной скорости - потом задействуется медленный NAND - скорость резко падает, а система начинает сильно замирать
Dmitriy
Только если txg реже закрывать, и то понимая последствия, в остальном никак запись не уменьшишь же фактическую
txg - это понятно изменением zfs_vdev_aggregation_limit_non_rotating, zfs_dirty_data_sync_percent, zfs_delay_scale, zfs_vdev_async_write_max_active добился при длительной последовательной записи iowait на пул в пределах 10-15%
Dmitriy
скорость и задежки естественно плавают - в зависимости от высвобождаемого SLC кэша
Alexandr
Лучше выкинуть эти ссд, и поставить даже бу серверные, иначе это ни к чему хорошему не приведет
George
txg - это понятно изменением zfs_vdev_aggregation_limit_non_rotating, zfs_dirty_data_sync_percent, zfs_delay_scale, zfs_vdev_async_write_max_active добился при длительной последовательной записи iowait на пул в пределах 10-15%
Ну экономить на записи можно только на перезаписи тех же блоков плюс сбросом за раз батчем данных, что уже сделано. Можно чуть уменьшить иопсы через redundant_metadata. В общем то всё. Ну сжатие ещё)
Dmitriy
не встречал
Dmitriy
они только читают - и почти не пишут
Dmitriy
а вот при распаковке архивных копий - серверу плохеет (((
Alexandr
Неважно, этот ссд просто не предназначен для таких задач, я вам не рекомендую его в продакшене использовать
George
redundant_metadata это что?
См маны https://openzfs.github.io/openzfs-docs/search.html?q=Redundant_metadata&check_keywords=yes&area=default#
George
Но да, ожидаемое поведение от этих дисков
Dmitriy
Dmitriy
Но да, ожидаемое поведение от этих дисков
в любом случае - благодарю за помощь
Art
10гб принимают на нормальной скорости - потом задействуется медленный NAND - скорость резко падает, а система начинает сильно замирать
10 гб?? Что-то экстремально мало. Даже у 250 гб модели slc-кэш 12 гб И это не говоря уже о такой штуке как псевдо-slc А о какой нормальной скорости мы говорим, и как она падает после 10 гб записи?
Dmitriy
видимо я был не внимателен - пока тестировал fio тесты шли на 50ГБ файлах - скорее всего, выбрал весь кэш
Art
видимо я был не внимателен - пока тестировал fio тесты шли на 50ГБ файлах - скорее всего, выбрал весь кэш
Понял. Ну тут вопрос в общем насколько всё-таки дропается скорость после исчерпания slc-кэша? Я сейчас глянул тест 4ТБ-версии 870 EVO - диск держит 500 МБ в сек в течении 15 мин (не факт, что это предел, просто тест такой) Если у вас меньше, то я бы подумал... не знаю даже на что) Надо локализовать проблему Если есть свободный такой диск, то потестите его в фио без зфс, а прямо как девайс, то есть /dev/sdx
Combot
Xxx Xxc has been banned! Reason: CAS ban.
Vladislav
видимо я был не внимателен - пока тестировал fio тесты шли на 50ГБ файлах - скорее всего, выбрал весь кэш
Если уж тестить обычные ssd - то обычно имеет смысл Full Write делать или по времени гонять