Δαρθ
подскажите, чексуммы sha256 юзают sha-ni если оно есть в проце?
Δαρθ
linux, 2.0.4
George
а как получить список меток?
смотреть в эту сторону https://serverfault.com/questions/1002890/get-array-of-latest-txg-values-and-uberblocks-using-zdb-on-a-zfs-pool
George
шифровальщик зашифровал шару на старом Freenas, а админ настроил снимки на корневой датасет, вместо рабочего вложенного... Может получится что то вытащить
сколько секунд после экспорта прошло? просто если сутками измеряется, то шансы ничтожны, по умолчанию 100 чтоли txg хранятся, или даже меньше
Evgenii
сколько секунд после экспорта прошло? просто если сутками измеряется, то шансы ничтожны, по умолчанию 100 чтоли txg хранятся, или даже меньше
Насколько я знаю, этот файловый сервер отключили сразу как нашли что файлы стали зашифрованы
Evgenii
сейчас там человек борется с freenas (вкладка включения службы ssh не прогружается, запустил обновление freenas), чтобы по ssh подключиться можно было, а то веб консоль там не позволяет промотать наверх, и посмотреть список txg который выводится командой
Evgenii
(вкладка включения службы ssh не прогружается, запустил обновление freenas). пул я экспортировал уже
Evgenii
импортировать будем в read only, спасибо за напустствие
Сергей
Должно было быть + - одинаково)) поэтому и говорю, что в один поток и сам зфс работает норм
поднял архивы fio: это для глубины 16 и кол-ва джоб 1,8,64. выполняется два теста (файлы фио выкладывал тут в группе): RandRW (70/30) и такой же RandRW (70/30), но с fsync=1 ==== IOD 16-J1 Run status group 0 (all jobs): READ: bw=232MiB/s (243MB/s), 232MiB/s-232MiB/s (243MB/s-243MB/s), io=22.4GiB (24.1GB), run=99039-99039msec WRITE: bw=99.3MiB/s (104MB/s), 99.3MiB/s-99.3MiB/s (104MB/s-104MB/s), io=9831MiB (10.3GB), run=99039-99039msec Run status group 1 (all jobs): READ: bw=126MiB/s (132MB/s), 126MiB/s-126MiB/s (132MB/s-132MB/s), io=14.7GiB (15.8GB), run=120003-120003msec WRITE: bw=53.0MiB/s (56.6MB/s), 53.0MiB/s-53.0MiB/s (56.6MB/s-56.6MB/s), io=6476MiB (6791MB), run=120003-120003msec ==== IOD 16-J8 Run status group 0 (all jobs): READ: bw=588MiB/s (616MB/s), 588MiB/s-588MiB/s (616MB/s-616MB/s), io=68.9GiB (73.9GB), run=120002-120002msec WRITE: bw=252MiB/s (264MB/s), 252MiB/s-252MiB/s (264MB/s-264MB/s), io=29.5GiB (31.7GB), run=120002-120002msec Run status group 1 (all jobs): READ: bw=308MiB/s (323MB/s), 308MiB/s-308MiB/s (323MB/s-323MB/s), io=36.1GiB (38.8GB), run=120001-120001msec WRITE: bw=132MiB/s (138MB/s), 132MiB/s-132MiB/s (138MB/s-138MB/s), io=15.5GiB (16.6GB), run=120001-120001msec ==== IOD 16-J64 Run status group 0 (all jobs): READ: bw=534MiB/s (560MB/s), 534MiB/s-534MiB/s (560MB/s-560MB/s), io=62.6GiB (67.2GB), run=120007-120007msec WRITE: bw=229MiB/s (240MB/s), 229MiB/s-229MiB/s (240MB/s-240MB/s), io=26.8GiB (28.8GB), run=120007-120007msec Run status group 1 (all jobs): READ: bw=502MiB/s (527MB/s), 502MiB/s-502MiB/s (527MB/s-527MB/s), io=58.9GiB (63.2GB), run=120003-120003msec WRITE: bw=215MiB/s (226MB/s), 215MiB/s-215MiB/s (226MB/s-226MB/s), io=25.2GiB (27.1GB), run=120003-120003msec
Alexander
поднял архивы fio: это для глубины 16 и кол-ва джоб 1,8,64. выполняется два теста (файлы фио выкладывал тут в группе): RandRW (70/30) и такой же RandRW (70/30), но с fsync=1 ==== IOD 16-J1 Run status group 0 (all jobs): READ: bw=232MiB/s (243MB/s), 232MiB/s-232MiB/s (243MB/s-243MB/s), io=22.4GiB (24.1GB), run=99039-99039msec WRITE: bw=99.3MiB/s (104MB/s), 99.3MiB/s-99.3MiB/s (104MB/s-104MB/s), io=9831MiB (10.3GB), run=99039-99039msec Run status group 1 (all jobs): READ: bw=126MiB/s (132MB/s), 126MiB/s-126MiB/s (132MB/s-132MB/s), io=14.7GiB (15.8GB), run=120003-120003msec WRITE: bw=53.0MiB/s (56.6MB/s), 53.0MiB/s-53.0MiB/s (56.6MB/s-56.6MB/s), io=6476MiB (6791MB), run=120003-120003msec ==== IOD 16-J8 Run status group 0 (all jobs): READ: bw=588MiB/s (616MB/s), 588MiB/s-588MiB/s (616MB/s-616MB/s), io=68.9GiB (73.9GB), run=120002-120002msec WRITE: bw=252MiB/s (264MB/s), 252MiB/s-252MiB/s (264MB/s-264MB/s), io=29.5GiB (31.7GB), run=120002-120002msec Run status group 1 (all jobs): READ: bw=308MiB/s (323MB/s), 308MiB/s-308MiB/s (323MB/s-323MB/s), io=36.1GiB (38.8GB), run=120001-120001msec WRITE: bw=132MiB/s (138MB/s), 132MiB/s-132MiB/s (138MB/s-138MB/s), io=15.5GiB (16.6GB), run=120001-120001msec ==== IOD 16-J64 Run status group 0 (all jobs): READ: bw=534MiB/s (560MB/s), 534MiB/s-534MiB/s (560MB/s-560MB/s), io=62.6GiB (67.2GB), run=120007-120007msec WRITE: bw=229MiB/s (240MB/s), 229MiB/s-229MiB/s (240MB/s-240MB/s), io=26.8GiB (28.8GB), run=120007-120007msec Run status group 1 (all jobs): READ: bw=502MiB/s (527MB/s), 502MiB/s-502MiB/s (527MB/s-527MB/s), io=58.9GiB (63.2GB), run=120003-120003msec WRITE: bw=215MiB/s (226MB/s), 215MiB/s-215MiB/s (226MB/s-226MB/s), io=25.2GiB (27.1GB), run=120003-120003msec
Приветствую, Сергей! А что у вас такое груп 0 и груп 1?
Alexander
Все понял - это пока нет
Сергей
это зеркало из двух NVMe, PM983 на 1.92Tb
Alexander
поднял архивы fio: это для глубины 16 и кол-ва джоб 1,8,64. выполняется два теста (файлы фио выкладывал тут в группе): RandRW (70/30) и такой же RandRW (70/30), но с fsync=1 ==== IOD 16-J1 Run status group 0 (all jobs): READ: bw=232MiB/s (243MB/s), 232MiB/s-232MiB/s (243MB/s-243MB/s), io=22.4GiB (24.1GB), run=99039-99039msec WRITE: bw=99.3MiB/s (104MB/s), 99.3MiB/s-99.3MiB/s (104MB/s-104MB/s), io=9831MiB (10.3GB), run=99039-99039msec Run status group 1 (all jobs): READ: bw=126MiB/s (132MB/s), 126MiB/s-126MiB/s (132MB/s-132MB/s), io=14.7GiB (15.8GB), run=120003-120003msec WRITE: bw=53.0MiB/s (56.6MB/s), 53.0MiB/s-53.0MiB/s (56.6MB/s-56.6MB/s), io=6476MiB (6791MB), run=120003-120003msec ==== IOD 16-J8 Run status group 0 (all jobs): READ: bw=588MiB/s (616MB/s), 588MiB/s-588MiB/s (616MB/s-616MB/s), io=68.9GiB (73.9GB), run=120002-120002msec WRITE: bw=252MiB/s (264MB/s), 252MiB/s-252MiB/s (264MB/s-264MB/s), io=29.5GiB (31.7GB), run=120002-120002msec Run status group 1 (all jobs): READ: bw=308MiB/s (323MB/s), 308MiB/s-308MiB/s (323MB/s-323MB/s), io=36.1GiB (38.8GB), run=120001-120001msec WRITE: bw=132MiB/s (138MB/s), 132MiB/s-132MiB/s (138MB/s-138MB/s), io=15.5GiB (16.6GB), run=120001-120001msec ==== IOD 16-J64 Run status group 0 (all jobs): READ: bw=534MiB/s (560MB/s), 534MiB/s-534MiB/s (560MB/s-560MB/s), io=62.6GiB (67.2GB), run=120007-120007msec WRITE: bw=229MiB/s (240MB/s), 229MiB/s-229MiB/s (240MB/s-240MB/s), io=26.8GiB (28.8GB), run=120007-120007msec Run status group 1 (all jobs): READ: bw=502MiB/s (527MB/s), 502MiB/s-502MiB/s (527MB/s-527MB/s), io=58.9GiB (63.2GB), run=120003-120003msec WRITE: bw=215MiB/s (226MB/s), 215MiB/s-215MiB/s (226MB/s-226MB/s), io=25.2GiB (27.1GB), run=120003-120003msec
А какой блок и иопсы не вижу
Сергей
А какой блок и иопсы не вижу
там боьшая портянка, сейчас и ту часть выложу тогда
Alexander
там боьшая портянка, сейчас и ту часть выложу тогда
Спс, она более интересно, по бендвичу уже не помню. В памяти иопсы))
Сергей
Сергей
Сергей
Alexander
Ну и тут уже вижу, что на 16 джобах падение
Alexander
Ну и тут уже вижу, что на 16 джобах падение
На 64 ссори, но возможно уже и на 16 будет падать, до 8 росло
Сергей
Ну и тут уже вижу, что на 16 джобах падение
? J1: group 0 read: IOPS=29.6k, BW=232MiB/s (243MB/s)(22.4GiB/99039msec) write: IOPS=12.7k, BW=99.3MiB/s (104MB/s)(9831MiB/99039msec); 0 zone resets group 1 read: IOPS=16.1k, BW=126MiB/s (132MB/s)(14.7GiB/120003msec) write: IOPS=6907, BW=53.0MiB/s (56.6MB/s)(6476MiB/120003msec); 0 zone resets J8: group 0 read: IOPS=75.2k, BW=588MiB/s (616MB/s)(68.9GiB/120002msec) write: IOPS=32.2k, BW=252MiB/s (264MB/s)(29.5GiB/120002msec); 0 zone resets group 1 read: IOPS=39.4k, BW=308MiB/s (323MB/s)(36.1GiB/120001msec) write: IOPS=16.9k, BW=132MiB/s (138MB/s)(15.5GiB/120001msec); 0 zone resets
Сергей
Ну этож о чем я и говорил((( 40киопс с нвме - это ахтунг(((
в одном потоке). Зачем эксплуатировать ZFS и такие быстрые диски в одном потоке?
Ivan
Ну этож о чем я и говорил((( 40киопс с нвме - это ахтунг(((
на голом диске эти тесты сколько кажут ?
Alexander
на голом диске эти тесты сколько кажут ?
Я думаю, что он около 200 покажет на 70/30
Alexander
сжатие влияет на латенси
Сжатие чего? Я думаю тест честный без вкл.компрессии
Alexander
а вот это я и не помню точно
))) с сжатием иопсов больше в тестах кажут)) но результаты все равно лучше чем у меня на оптане🤔не понимаю как так
Alexander
в зфс то включено или нет ?
Сергей лучше знает))
Сергей
на голом диске с такой же глубиной очереди (16)
Сергей
Сергей
Сергей
в зфс то включено или нет ?
сейчас на пуле включено, а было ли включено при тестировании - не уверен в ответе. Делал разные варианты, но в названии теста не включал состоянии компрессии
Alexander
zfs на двух оптанах в зеркале? 905p?
У меня p4800 , если память не изменяет
Alexander
тоже ZFS?
Да с зфс
Alexander
на голом диске с такой же глубиной очереди (16)
Ну т.е разница от голова диска в 10 раз
Alexander
Насколько я вижу
Сергей
У меня p4800 , если память не изменяет
отличная модель. У меня были только в реальном опыте 900p, я их под SLOG делал и под временные файлы остаток разделов в страйп 0 делал.
Alexander
скорее в 3
Ну где же 500 киопс, против 50
Сергей
Ну где же 500 киопс, против 50
я на fsync=1 смотрю, мне именно этот тип записи больше всего интересует (у меня постгрес)
Alexander
770 против 100
Ладно в 7 раз))
Alexander
770 против 100
А если брать мои оптаны, там в 10🥲🤦‍♂️
Alexander
770 против 100
Вывод то понятен, хоть тут люди и спорили, на нвме пока делать нечего с zfs
Ivan
А я без))
в zfs sync включен был при тестах ?
Ivan
или оно на тесты не влияет ?
Alexander
в zfs sync включен был при тестах ?
Помоему по дефолту он там алвейс, но я и отключать пробовал
Сергей
смотрю на тесты с recsize=16k, там уже лучше показатели (без fsync). Интересно на каком же тогда рексайз это я тестировал..... это 16k recsize и IOD16, J8
Сергей
32G
Alexander
В арк не лег?))
Сергей
В арк не лег?))
сомневаюсь, там одновременно много же джоб запускалось. Из арк там бы скорость была на "миллионы", 48 ядер на машине
Сергей
у прокса кстати есть анализ производительности за прошлый год: https://www.proxmox.com/en/downloads/item/proxmox-ve-zfs-benchmark-2020
Alexander
Осталось только повторить)) но я и рекордсайз уменьшал, особо не помогло
Сергей
а в голую сколько показывают 4800?
Сергей
Осталось только повторить)) но я и рекордсайз уменьшал, особо не помогло
кстати, я в ядре всегда отключаю mitigations=off и init_on_alloc=0
Alexander
а в голую сколько показывают 4800?
Прилично)) точные цифры могу завтра показать)) емнип у него по мануалу 500к на рандомную запись
Alexander
а в голую сколько показывают 4800?
Через зфс тот же тест 50🤷‍♂️
Сергей
а с ext4 vs zfs сравнивали?
Alexander
а с ext4 vs zfs сравнивали?
Нет еще , с lvm хочу сравнить
Alexander
а с ext4 vs zfs сравнивали?
С бтрфс сравнивал
Сергей
Нет еще , с lvm хочу сравнить
как блочные устройства?
Alexander
Я в с зфс блочку замерял