Владимир
второй делает ровно тоже самое через 30 сек после того как первый так сделал))
Владимир
Владимир
они подключены на прямую к мамке)
Владимир
на предыдущей мамке было тоже самое)
Alexandr
а бп у вас один и тотже был?
Владимир
нет
Владимир
ьп другой
Владимир
от старого остался только проц и сами ssd
Alexandr
а замерьте тестером линию 5в поближе к винчестеру
Владимир
Это SSD
Alexandr
там должно быть нениже 4,9
Alexandr
аааа
Alexandr
тогда отпадает
Владимир
И кстати атм 6 сас дисков и из них никто не жалуется
Владимир
они бы первые почуствовали проблемы
George
они подключены на прямую к мамке)
мамка той же модели? там же тоже контроллер
Владимир
мамка той же модели? там же тоже контроллер
вот это даже не в курсе, вроде той же
Сергей
нашёл ошибку (numjobs не использовались фактически)
Сергей
Сергей
riv
Всем привет
DRDY - drive ready. Это, скорее всего, проьлема sata
Alexandr
@banofbot
Alexandr
надо сюда этого бота добавить, очень помогает
Fedor
У меня есть кое-что получше :)
Fedor
Хотя вотебан тоже будет хорошим подспорьем
Fedor
Я удивляюсь, как на это кто-то ещё ведётся :)
Alexandr
вот-вот
Alexandr
оно больше раздражает)
ivdok
@neurox бот
Nikolay
задрали уже
Fedor
изучаю одного бота, завтра может уже попробую внедрить
Александр🇷🇺
@hornwind , @Laureldo боты?
Laurentiis
Прям обидно-то как)))
Александр🇷🇺
Прям обидно-то как)))
Ни одной общей группы>)
Laurentiis
@hornwind Миша, ты бот?
Mikhail
никак нет))
Александр🇷🇺
@hornwind Миша, ты бот?
А с ним четыре, но вопрос не снят
Александр🇷🇺
никак нет))
Норм🤝
Mikhail
Коллегу пригласил, чтобы читал и zfs преисполнялся))
Fedor
В интернете набредал на заметки по поводу конфигурирования зфс и самого сервиса для максимальной производительности. Может, соберём какую-нибудь базу знаний?
Fedor
Видел пг, мускуль, и ещё что-то
Сергей
В интернете набредал на заметки по поводу конфигурирования зфс и самого сервиса для максимальной производительности. Может, соберём какую-нибудь базу знаний?
так она уже тут (в истории группы) есть. Нужно просто теперь пройтись по архиву и консолидировать. Но это же так лениво))))
Сергей
Видел пг, мускуль, и ещё что-то
zvol для виртуалок (blocksize = размеру блока ФС, которая внутри ФС)
Fedor
У них кластер по 64 вроде
Fedor
Не ошибаюсь?
Сергей
qcow2 как файл для хранения ВМ - это по-моему моветон (особенно если qcow на zfs как файл). Рекомендации: zvol или lvm thin. В любом случае с qcow я пас - не работал, поэтому ничего не могу подсказать
George
Видел пг, мускуль, и ещё что-то
https://openzfs.org/wiki/Performance_tuning
George
если кому есть чем дополнить - скажите, я наконец перетащу на sphinx эту страницу и можно будет через пул реквесты принимать изменения
Сергей
https://openzfs.org/wiki/Performance_tuning
у меня вот это: PostgreSQL Make separate datasets for PostgreSQL's data and WAL. Set recordsize=8K on both to avoid expensive partial record writes. Set logbias=throughput on PostgreSQL's data to avoid writing twice. не "взлетело" оттуда. Латенси стал выше при таком режиме.
Fedor
А транзакции шустрее стали при этом?
Сергей
А транзакции шустрее стали при этом?
нет. В целом pg_bench меньше показал цифры
Fedor
Странно. Может, вмешался кто. Кеш какой-нибудь, например
Сергей
возможно их совет касался случая, когда нет SLOG. Или медленные диски. Но они этого не уточняют в рекомендации
Сергей
Для пулов из быстрых дисков (ssd/nvme) я везде на датасетах оставил logbias=latency.
George
Для пулов из быстрых дисков (ssd/nvme) я везде на датасетах оставил logbias=latency.
соглашусь с тобой, вообще тема оптимизаций под БД не простая, очень много "если"
George
мне вообще интересно стало, переживёт ли постгря ребут, если на wal поставить sync=standard а на data sync=disabled, сможет ли оно корректно накатить логи и как быстро оно это делает
George
латенси должно подрости, но thoughput по идее вырастет
Fedor
С валами надо предельно осторожно
Fedor
И врайт фулл пейджс неплохо б
Сергей
а не мерил с recordsize=16k и compression=lz4?
у меня так и стоит по итогу для файлов самой СУБД. 16k и компрессия. Сжатие для баз получается где-то около x2. Для 1С баз получается выше - x2.8 А WAL-ы на отдельном в 128К. И я теперь их жму самим ПГ, поэтому компрессию(zfs) на датасете для валов отключил
George
В общем вы смотивировали меня, тащу в гитхаб эту страницу, потом привлеку вас на открытие issues по теме
Сергей
почему кстати постгресом жмёшь? измерял разницу?
более чем x3. Потому что у меня потоковая репликация идёт. И без компрессии валов стабильно занималось около 250-300мбит/с трафика, сейчас всё укладывается в среднем в 70-90мбит/с
George
сегодня подготовлю основу)
Сергей
а, тогда понятно, тебе интересно это задокументировать? Было бы отлично
задокументировано это уже в разных местах), но с удовольствием выложу это и в общедоступные практики.
Ivan
эти оптимизации для случаев, когда бд в контейнере лежит ?
Ivan
для случая с вм не совсем подходит ?
Nikolay
Убедил заказать всё таки 🙂
Сергей
для случая с вм не совсем подходит ?
подходит и для ВМ, просто сжатие на уровне хоста уже будет меньше.
Сергей
эти оптимизации для случаев, когда бд в контейнере лежит ?
эта оптимизация особенно хорошо подходит, если WAL-ы нужно куда-то отправлять (архив, репликация)
Сергей
Убедил заказать всё таки 🙂
хороший выбор), 👍
Nikolay
хороший выбор), 👍
Скоро моя vps полетит на славу 😁