Владимир
В зфс есть функционал который работает от обратного, оставляет свободным указанный объем озу
Владимир
К примеру свободно 20, ты указал держать свободным 4, под кеш уйдёт 16
Владимир
Стало свободно 10, под кеш 6 пойдет
Владимир
Алексей
спасибо за совет
Владимир
ОЗУ лишняя а ты фигнёй страдаешь
Алексей
у меня лишней озу нету
Владимир
Лишней нет ни у кого
Владимир
))
Алексей
у тебя похоже есть, но не лишняя а не рационально используемая
Владимир
Верно, у меня на серверах с 128гб озу потребляет я обычно до 40, остальное кеш
Алексей
у меня таких серверов нет
Владимир
И в этом плане мой подход в ограничении потребляемой озу более гибкий и рациональный
Алексей
а мой подход состоит в том что я делаю сервак под удалённый бэкап где я буду хранить данные ретроспективно несколько лет, и зачем там лишняя озу пока не выяснил
Владимир
Алексей
пис)
Владимир
В твоём случае так рационально)
Art
промежуточный итог2:
записано мусора ~26,6ТБ
размер DDT ~50,5ГБ
скорость генерации/записи мусора 167МБ/сек
скорость записи на dedup ~20МБ/сек
скорость чтения на dedup ~7МБ/сек
заполненность пула 64%
фрагментация 0%
можно констатировать что скорость генерации/записи мусора продолжает деградировать, а объем данных читаемых/записываемых в dedup устройство стабилизировался. К сожалению точных метрик я не снимал, но выглядит так, что чем больше размер DDT, тем больше dedup устройству приходится совершать операций read (при внешне одинаковом объеме прочитанных данных), отнимая при этом свободный ресурс который остаётся для write операций, тем самым понижая итоговую скорость записи мусора.
пишем дальше...
интересные штуки крутишь)
вопрос, а в итоге рандом дедупится ли вообще и если да, то насколько? Какой коэффициент сейчас?
и в итоге используется ли в это сетапе дедуп-девайс под DDT ?
Art
Алексей
больше чем на рандоме таблица дедупликации быть не может - 100% уникальных данных, ни единого повтора
Алексей
промежуточный итог2:
записано мусора ~26,6ТБ
размер DDT ~50,5ГБ
скорость генерации/записи мусора 167МБ/сек
скорость записи на dedup ~20МБ/сек
скорость чтения на dedup ~7МБ/сек
заполненность пула 64%
фрагментация 0%
можно констатировать что скорость генерации/записи мусора продолжает деградировать, а объем данных читаемых/записываемых в dedup устройство стабилизировался. К сожалению точных метрик я не снимал, но выглядит так, что чем больше размер DDT, тем больше dedup устройству приходится совершать операций read (при внешне одинаковом объеме прочитанных данных), отнимая при этом свободный ресурс который остаётся для write операций, тем самым понижая итоговую скорость записи мусора.
пишем дальше...
промежуточный итог3:
записано мусора ~38,7ТБ
размер DDT ~76,2ГБ
скорость генерации/записи мусора 165МБ/сек
скорость записи на dedup ~20МБ/сек
скорость чтения на dedup ~7МБ/сек
заполненность пула 93%
фрагментация 0%
очень интересные результаты, надеюсь вам понравилось так же как и мне :)
и да это было в режиме sata 3гбит/сек, на следующей неделе протестирую 6гбит должно быть повеселее
Andrew
А генерация мусора в /dev/null сильно быстрее идёт, чем на диск?
Станислав
Georg🎞️🎥
Алексей
Ssd? Hdd?
Raidz2 из 8 hdd + dedup ssd
Алексей
Georg🎞️🎥
8 дисков , в среднем гигабит один выжирает - у вас 12 гигабит, если через sas hba🤷🏻♂️
Если каждый отдельно в сата 3gb - ну тогда тебя более сата столько не едет , откуда взять существенный прирост тогда ?
Алексей
Сейчас узкое звено - ssd на 3гбит
Алексей
Алексей
впринципе и 3гбит мне за глаза, но интересно 6 протестить
Georg🎞️🎥
Ну если они стабильно держат 200MB чтения/ записи линейно - то можно и 6 гигабит 👋
Алексей
соответственно если мы расширим данное узкое место (ssd на sata 3гбит) писать будет быстрее раза в полтора минимум
Georg🎞️🎥
Алексей
Алексей
ссд по pci наверное хорош всем, кроме того что его надо покупать за немного русских денег, а их у меня нет)
Georg🎞️🎥
А sas2 hba типа бесплатный есть ?🤔
Алексей
да, древний 9211-4i
Georg🎞️🎥
6гиг это и сейчас много 👋 это ж 24gb на подключение. 20 винтов можно навесить ))) а если через 10gb или 20gb отдавать , то и больше )) для небольших контор за глаза
Алексей
а если учесть что литься туда будет по гигабиту через инет то и подавно вообще
Алексей
всё. под завязку 41.2T фрагментация внезапно 2%
Georgij
Фрагментация выросла из-за того, что пул под завязку. Zfs не знает, куда запихать целый блок и бьёт его на маленькие.
Алексей
Georg🎞️🎥
George
емнип фрагментацию данных cli просто так не пишет
Алексей
Алексей
central
Алексей
Georg🎞️🎥
Если снимешь бюстгальтер, там точно zfs будет ?🤔
Georgij
Там не до zfs будет
Алексей
Ты из какой деревни будешь. У нас тут в соседней древние сасы подвезли…
Станислав
Что делать, если скорость в пуле деградировала?
riv
@Zer6918 поделитесь пожалуйста, что за методика записи нагрузки?
Я имел в виду запись с помощью blktrace и воспроизведения с помощью fio
https://netofrombrazil.com/2015/01/05/capturing-and-replaying-block-traces-blktrace-btrecord-btreplay-and-fio/
А тут описано как записанный трек воспроизвести в видео видео, на котором можно визуально оценить какие операции происходят
https://selectel.ru/blog/analiz-proizvoditelnosti-blochnyx-ustrojstv-s-blktrace/
Vladislav
/report
Алексей
Georg🎞️🎥
edo1
ashift=12, почему всего 28 блока размера 4к?
https://cl1p.net/uqzudfoqdkt1t
edo1
4М, но полно мелких файлов
edo1
в общем-то это видно по таблице psize
Art
4М, но полно мелких файлов
и ни одного файла больше, чем 4М ?
и что-то я сейчас вгляделся в таблицу, и не пойму а откуда там блоки меньше ашифта, это вообще как🤨
Какой командой эту таблицу можно построить?
edo1
zdb -bb zpool
на больших пулах может быть долго
edo1
и почему блоку не быть меньше ашифта? )
edo1
причём тут это? psize и lsize не привязаны к ashift
Egor
Ashift это смещение или выравнивание раздела, для того чтобы не было ситуации расположения одного логического блока (4 и менее кБ) в 2х физических