Sergey
@Riv1329 Наблюдаю теперь какие то проблемы с производительностью, при записи скорость скачет от 200мб/с и опускается до нуля... Может есть идеи?
Владимир
@Riv1329 Наблюдаю теперь какие то проблемы с производительностью, при записи скорость скачет от 200мб/с и опускается до нуля... Может есть идеи?
ну ты выбрал вычислительный рейд и твой пул состоит из одного vdev, ВНЕЗАПНО для многих, как и для меня когда-то НЕТ никакого параллелизма записи на диски внутри vdev, запись последовательна и число дисков в vdev не увеличивает скорость. У Вас будет скорость самого медленного устройства в vdev
Владимир
поправьте если я где-то ошибся)
Владимир
это в принципе не может быть быстро короче))
Владимир
для сравнения обычный RAID5 mdadm или хардварный при записи распалаллеливат запросы на диски и при этом примерно кратно получается увеличить скорость, в прочем ещё зависит от ряда парметров, но в любом случае прирост там имеется, тут нет))
Владимир
Диски все быстрые... Не до нуля же...
смотри в htop потребляет что-то проц?, у тебя рейд вычислительный, я незнаю какую нагрузку создаёт втой вариант, сколько ему позволено есть потоков и на сколько мощный у тебя проц) Ну и собственно смотри статистику по IO
Владимир
+ ещё бывает что экономные ребята такие как ты)), которые хотят много места)), ставят сжатие на пул такое что проц просто охреневает))
Владимир
и в итоге запись даже на mirror может сесть))
Sergey
нагрузки на проц вроде не много, сжати lz4. Проц 2690v2, памяти откушал зфс примерно 30гб.... Проц нагружен на 8-10% всего.
Владимир
lz4 проде норм, не должно прям жрать, хотя смотря что у тебя за проц конечно)
Владимир
нагрузки на проц вроде не много, сжати lz4. Проц 2690v2, памяти откушал зфс примерно 30гб.... Проц нагружен на 8-10% всего.
проц конечно так себе, но с lz4 должен на ура справиться на мой взгляд,... А есть в htop процессы выедающие одно ядро целиком?...
Владимир
в момент нагрузки и просадки, а ещё какой LA у сервера в этот момент? Какое колличество запущенных процессов? Много ли красноты в ядрах? Ну и вообще какой цвет в ядрах преобладает в момент нагрузки? Ну или просто скрин htop в момент проблемы
Владимир
а ещё сколько ядер в htop отображается? И в каком режиме работает проц?
Владимир
Проверить режим работы процессора Debian cat /sys/devices/system/cpu/cpufreq/policy*/scaling_governor Centos cat /sys/devices/system/cpu/cpu*/cpufreq/scaling_governor #cat
riv
Диски все быстрые... Не до нуля же...
Нужно в проксмокс убрать все виды кэшерования qemu и поставить лимит на iops и на линейную запись чуть меньше, чем может пул. До нуля падает скорость когда пул не справляется. Из-за особенностей zfs, у вас виртуальная машина в первую секунду забивает writeback-буфер, а потом скорость 0, т.к буфер забит, пока он не сбросится на диск.
Владимир
и по мере исчезновения синевы станет живее
Владимир
до 100 ни 1 не доходит, режим работы performance
всё остальное то чего подрезал
Владимир
та инфа что ниже тоже интересно
Владимир
процессы можешь не показывать
Владимир
чисто шапка
Владимир
там la, число запущенных, ОЗУ
Владимир
до 100 ни 1 не доходит, режим работы performance
ну и красноты не много, станно, вы уверены что скрин сделан в момент когда тупит и ложится производительность?
Sergey
кстати странно... proxmox показывает 39gb использовано...
Владимир
кстати странно... proxmox показывает 39gb использовано...
желтое это Page Cache ядра линукс Можешь загуглить
Владимир
Его обычно не считают занятым, так как он очень быстро высвобождает ОЗУ
Владимир
когда она нужна
riv
вот кстати если дело в буфере, то если я не ошибаюсь в ОЗУ будет синее
Zfs выглядит в htop как зеленая полоска, к сожалению. Но подчиняется команде очистки буфера. Но я писал не об этом. Qemu-буфер может усугубить ситуацию но и без него будет падать до нуля. Сама zfs, если нет синхронных вызовов, принимает данные в свой внутрений writeback-буфер с бесконечной скоростью, пока он не заполнится. По этому, его всегда можно прогрузить, достаточно лить данные на диск не останавливаясь.
Владимир
кстати странно... proxmox показывает 39gb использовано...
а вот свап меня дико пугает, ты ещё скажи что он у тебя на ZFS расположен))
riv
вот кстати если дело в буфере, то если я не ошибаюсь в ОЗУ будет синее
Ну а чем мешает падение скорости до 0, вначале то скорость огого, в сумме быстрее выходит, т.к. writeback?
Владимир
или он присылает скрин не в момент проблемы
Владимир
я то с вами и не спорю)
Владимир
только дополняю)
Sergey
ну и красноты не много, станно, вы уверены что скрин сделан в момент когда тупит и ложится производительность?
пытался поймать, но не получилось именно с 0... Своп лежит на отдельном ссд где и сама система.
riv
Я по ошибке вам ответил. Это предназначено для автора поста с проблемой
Владимир
пытался поймать, но не получилось именно с 0... Своп лежит на отдельном ссд где и сама система.
да, на скрине вижно что дисковая подсистема не справляется, проц тут точно не причём
Владимир
вот такой шикарный zraid1 в один вдев))
Владимир
оно не пишется на все одновременно
Владимир
Я где-то в доках это читал, могу попробовать разыскать или вы покажите опровержение
Владимир
да и я когда-то это тестировал и на сколько помню у меня не было прироста, в прочем это может быть не корректное тестирование, я был тогда слишком молод)
Georg🎞️🎥
оно не пишется на все одновременно
Raidz 1-2 из 8 дисков выдаёт 800 мегабайт/ с записи/ чтения линейных 👌то бишь выходит что пишет на все да
Владимир
🙈
Georg🎞️🎥
Владимир
Синх эт что ?
понятно))
Владимир
Синх эт что ?
если ты делаешь операцию записи без синх, она попадает просто в буфер ядра и пишется на диск не сразу, а ты просто получаешь быструю скорость, но буфер не безграничен, он сгладит скачки, но при интенсивной записи у тебя кончится ОЗУ и всё зависнет)
Владимир
если это нули, а у тебя включено сжатие на диске))
Владимир
оно хлопнется и будет нифига не весить))
Georg🎞️🎥
ещё вопрос каких данных?
Жирные видеофайлы … все сжатия я отрубаю
Владимир
и скорость хзаписи будет упираться в проц
Владимир
Жирные видеофайлы … все сжатия я отрубаю
а какая номинальная скорость каждого диска была при этом?
Владимир
200. Но ясно что в среднем 100-150 )
в общем я учту ваше замечание, на досуге порою документацию
Sergey
Владимир
у него там дирректрия с файлами
Владимир
хотя их только 3...
riv
с него на него по сути да....
Скорее всего, упирается в iops одного vdev.
Georg🎞️🎥
в общем я учту ваше замечание, на досуге порою документацию
🤷🏻‍♂️ Про один диск это речь про iops))) Когда весь ведев имеет iops одиночного диска ))) Это есть в документациях )
Sergey
ясно, похоже zfs не мое... слишком много минусов для меня чем плюсов в сравнение с железным...
riv
Тут много тонкостей: Больше дисков вraid-zX vdev - больше линейная скорость, но iops чуть хуже чем у одиночного диска. И надо учитывать ashift. При 7 дисках данные распределяются не оптимально и часть пространства у вас не занята, но читается при линейном чтении... Вроде, это обсуждали недавно. При 5 тисках и ashift 12, надо форматировать ntfs с параметром unit 16k А если сделать больше vdev-ов, то увеличится iops и легче поралелится будет.
riv
ясно, похоже zfs не мое... слишком много минусов для меня чем плюсов в сравнение с железным...
Ashift и другие аспекты так же надо учитывать при настройке аппаратного массива. Только там они называются по другому.