Владимир
В зфс есть функционал который работает от обратного, оставляет свободным указанный объем озу
Владимир
К примеру свободно 20, ты указал держать свободным 4, под кеш уйдёт 16
Владимир
Стало свободно 10, под кеш 6 пойдет
Алексей
ОЗУ что для прикола стоит чтобы так глупо ограничивать?
всё правильно, это тестовая машина тут просто было больше оперативки, что мне её вытаскивать что ли чтобы потом обратно ставить? там где всё будет крутиться оперативки меньше
Алексей
спасибо за совет
Владимир
ОЗУ лишняя а ты фигнёй страдаешь
Алексей
у меня лишней озу нету
Владимир
Лишней нет ни у кого
Владимир
))
Алексей
у тебя похоже есть, но не лишняя а не рационально используемая
Владимир
Верно, у меня на серверах с 128гб озу потребляет я обычно до 40, остальное кеш
Алексей
у меня таких серверов нет
Владимир
И в этом плане мой подход в ограничении потребляемой озу более гибкий и рациональный
Алексей
а мой подход состоит в том что я делаю сервак под удалённый бэкап где я буду хранить данные ретроспективно несколько лет, и зачем там лишняя озу пока не выяснил
Алексей
пис)
Владимир
В твоём случае так рационально)
Art
промежуточный итог2: записано мусора ~26,6ТБ размер DDT ~50,5ГБ скорость генерации/записи мусора 167МБ/сек скорость записи на dedup ~20МБ/сек скорость чтения на dedup ~7МБ/сек заполненность пула 64% фрагментация 0% можно констатировать что скорость генерации/записи мусора продолжает деградировать, а объем данных читаемых/записываемых в dedup устройство стабилизировался. К сожалению точных метрик я не снимал, но выглядит так, что чем больше размер DDT, тем больше dedup устройству приходится совершать операций read (при внешне одинаковом объеме прочитанных данных), отнимая при этом свободный ресурс который остаётся для write операций, тем самым понижая итоговую скорость записи мусора. пишем дальше...
интересные штуки крутишь) вопрос, а в итоге рандом дедупится ли вообще и если да, то насколько? Какой коэффициент сейчас? и в итоге используется ли в это сетапе дедуп-девайс под DDT ?
Алексей
интересные штуки крутишь) вопрос, а в итоге рандом дедупится ли вообще и если да, то насколько? Какой коэффициент сейчас? и в итоге используется ли в это сетапе дедуп-девайс под DDT ?
рандом не дедуплится поскольку это рандом. Этого и не должно быть - задача как раз сделать максимально большую таблицу дедупликации, чтобы протестировать её размер, скорость, иопсы и как оно вообще работает. да, отдельный дедуп девайс самый дешевый ssd adata su750 256gb это тест.
Алексей
больше чем на рандоме таблица дедупликации быть не может - 100% уникальных данных, ни единого повтора
Алексей
промежуточный итог2: записано мусора ~26,6ТБ размер DDT ~50,5ГБ скорость генерации/записи мусора 167МБ/сек скорость записи на dedup ~20МБ/сек скорость чтения на dedup ~7МБ/сек заполненность пула 64% фрагментация 0% можно констатировать что скорость генерации/записи мусора продолжает деградировать, а объем данных читаемых/записываемых в dedup устройство стабилизировался. К сожалению точных метрик я не снимал, но выглядит так, что чем больше размер DDT, тем больше dedup устройству приходится совершать операций read (при внешне одинаковом объеме прочитанных данных), отнимая при этом свободный ресурс который остаётся для write операций, тем самым понижая итоговую скорость записи мусора. пишем дальше...
промежуточный итог3: записано мусора ~38,7ТБ размер DDT ~76,2ГБ скорость генерации/записи мусора 165МБ/сек скорость записи на dedup ~20МБ/сек скорость чтения на dedup ~7МБ/сек заполненность пула 93% фрагментация 0% очень интересные результаты, надеюсь вам понравилось так же как и мне :) и да это было в режиме sata 3гбит/сек, на следующей неделе протестирую 6гбит должно быть повеселее
Andrew
А генерация мусора в /dev/null сильно быстрее идёт, чем на диск?
Станислав
А генерация мусора в /dev/null сильно быстрее идёт, чем на диск?
На ядре 5.10.0-17 - 403Мб/с На ядре 5.4.0-107 - 220Мб/с
Алексей
А генерация мусора в /dev/null сильно быстрее идёт, чем на диск?
Нет не сильно если что техника древняя xeon X5660 ядро свежее 5.15.39-4
Алексей
Ssd? Hdd?
Raidz2 из 8 hdd + dedup ssd
Georg🎞️🎥
Raidz2 из 8 hdd + dedup ssd
Ну 6 гигабит тогда вряд ли сильно быстрее будут 🤔для 8 винтов
Georg🎞️🎥
Будут сильнее существенно
С чего бы ? )) существенно то ? ))
Georg🎞️🎥
8 дисков , в среднем гигабит один выжирает - у вас 12 гигабит, если через sas hba🤷🏻‍♂️ Если каждый отдельно в сата 3gb - ну тогда тебя более сата столько не едет , откуда взять существенный прирост тогда ?
Алексей
С чего бы ? )) существенно то ? ))
С того что пропускная скорость выше и ссд будет переваривать больше данных
Georg🎞️🎥
С того что пропускная скорость выше и ссд будет переваривать больше данных
От того, что пропускная способность шоссе выше, каток по ней бытярее не поедет
Алексей
Сейчас узкое звено - ssd на 3гбит
Georg🎞️🎥
Сейчас узкое звено - ssd на 3гбит
Посадите его на pci e🤷🏻‍♂️u2 возьмите ssd
Алексей
От того, что пропускная способность шоссе выше, каток по ней бытярее не поедет
давайте вы не будете голословно заявлять, а мы дождёмся моих тестов на следующей неделе, я обязательно отпишусь и всё станет ясно, ускоряет сата 6гбит в отличии от сата 3гбит или нет
Алексей
Посадите его на pci e🤷🏻‍♂️u2 возьмите ssd
в моём кейсе 6гбит будет за глаза
Алексей
впринципе и 3гбит мне за глаза, но интересно 6 протестить
Georg🎞️🎥
давайте вы не будете голословно заявлять, а мы дождёмся моих тестов на следующей неделе, я обязательно отпишусь и всё станет ясно, ускоряет сата 6гбит в отличии от сата 3гбит или нет
В смысле , голословно??? Я вам рассказал - почему нет 8 дисков не выжрут sas1 подключение 😱Зачем проверять, когда понятно из спецификации Чтобы на 6 гигабитах увидеть - вам бы дисков 10-12 повестить🤷🏻‍♂️ Ну и да - на sas1 8 винтов hdd норм
Georg🎞️🎥
Ну если они стабильно держат 200MB чтения/ записи линейно - то можно и 6 гигабит 👋
Алексей
В смысле , голословно??? Я вам рассказал - почему нет 8 дисков не выжрут sas1 подключение 😱Зачем проверять, когда понятно из спецификации Чтобы на 6 гигабитах увидеть - вам бы дисков 10-12 повестить🤷🏻‍♂️ Ну и да - на sas1 8 винтов hdd норм
потому что сейчас они (блины в режиме sata 3гбит в raidz2) пишут 200 мегабайт в секунду в режиме дедупликации, а без дедупликации раскочегариваются до 700 мегабайт в секунду. в режиме дедупликации ssd в dedup устройстве не успевает обновлять DDT так быстро чтобы писалось быстрее чем 200
Алексей
соответственно если мы расширим данное узкое место (ssd на sata 3гбит) писать будет быстрее раза в полтора минимум
Алексей
До 700 - это на все блины соответсвенно же ? А чем ssd по pci плох ?
на все, я же тестирую запись в пул а не на один конкретный диск
Алексей
ссд по pci наверное хорош всем, кроме того что его надо покупать за немного русских денег, а их у меня нет)
Georg🎞️🎥
А sas2 hba типа бесплатный есть ?🤔
Алексей
да, древний 9211-4i
Georg🎞️🎥
6гиг это и сейчас много 👋 это ж 24gb на подключение. 20 винтов можно навесить ))) а если через 10gb или 20gb отдавать , то и больше )) для небольших контор за глаза
Алексей
а если учесть что литься туда будет по гигабиту через инет то и подавно вообще
Алексей
всё. под завязку 41.2T фрагментация внезапно 2%
Georgij
Фрагментация выросла из-за того, что пул под завязку. Zfs не знает, куда запихать целый блок и бьёт его на маленькие.
George
всё. под завязку 41.2T фрагментация внезапно 2%
вы скорее всего фрагментацию метаданных смотрите
George
емнип фрагментацию данных cli просто так не пишет
Алексей
вы скорее всего фрагментацию метаданных смотрите
В дедупе фрагментация есть. А в пуле нету
George
В дедупе фрагментация есть. А в пуле нету
ну да, фрагментация меты на основных вдевах минимальна потому что там меты считай нет
George
Дедуп еще и как спешл vdev работает?
а, блин, у вас же для дедупа только? тогда да, пока не было перезаписи фрагментация просто не растёт особо
central
а, блин, у вас же для дедупа только? тогда да, пока не было перезаписи фрагментация просто не растёт особо
ну так без перезаписи на пустой пул и не откуда фрагменртации взяться
Georg🎞️🎥
Если снимешь бюстгальтер, там точно zfs будет ?🤔
Georgij
Там не до zfs будет
Алексей
Ты из какой деревни будешь. У нас тут в соседней древние сасы подвезли…
Станислав
Что делать, если скорость в пуле деградировала?
riv
@Zer6918 поделитесь пожалуйста, что за методика записи нагрузки?
Я имел в виду запись с помощью blktrace и воспроизведения с помощью fio https://netofrombrazil.com/2015/01/05/capturing-and-replaying-block-traces-blktrace-btrecord-btreplay-and-fio/ А тут описано как записанный трек воспроизвести в видео видео, на котором можно визуально оценить какие операции происходят https://selectel.ru/blog/analiz-proizvoditelnosti-blochnyx-ustrojstv-s-blktrace/
Vladislav
/report
Алексей
Что делать, если скорость в пуле деградировала?
Кстати действительно можно что-то сделать?
edo1
ashift=12, почему всего 28 блока размера 4к? https://cl1p.net/uqzudfoqdkt1t
Art
ashift=12, почему всего 28 блока размера 4к? https://cl1p.net/uqzudfoqdkt1t
а рекордсайз какой? zfs get recordsize poolname ашифт задаёт минимум размера для блока, а потолок определяется рекордсайзом или же волблоксайзом в случае использования тома зфс
edo1
4М, но полно мелких файлов
edo1
в общем-то это видно по таблице psize
Art
4М, но полно мелких файлов
и ни одного файла больше, чем 4М ? и что-то я сейчас вгляделся в таблицу, и не пойму а откуда там блоки меньше ашифта, это вообще как🤨 Какой командой эту таблицу можно построить?
edo1
zdb -bb zpool на больших пулах может быть долго
edo1
и почему блоку не быть меньше ашифта? )
Vladislav
и почему блоку не быть меньше ашифта? )
создайте сейчас на винде текстовый файл с одной буквой и посмотрите на его размер на диске
edo1
причём тут это? psize и lsize не привязаны к ashift
Egor
Ashift это смещение или выравнивание раздела, для того чтобы не было ситуации расположения одного логического блока (4 и менее кБ) в 2х физических