ArtAnt
по-моему мы про разные вещи говорили, вы про горячий снэпшот виртуалки, я про снэпшот zfs.
central
ну получается так, только если делать snapshot с RAM То тут zfs наврятли поможет
Fedor
если делается снапшот средствами зфс, но под управлением обвязки гипервизора - там это возможно.
есть даже какие-то хелперы для постгреса.
Владимир
Владимир
о чём тут речь?)
Fedor
о рисках для постгреса при использовании снапшотов :)
Владимир
Владимир
ssh root@10.0.6.18 "su - postgres -c 'psql --dbname DBNAME --command=CHECKPOINT'"
ssh root@10.0.6.7 'vzdump 120 -compress zstd -storage HDD'
Владимир
вот так делаю я, 120 это номер контейнера
Владимир
10.0.6.18 - ip контейнера
Владимир
10.0.6.7 - ip дедика
Владимир
если не делать чекпойнт, бд будетт не консистивной, будет выглядеть как-будто машину рубанули по питанию
Владимир
ну и я пробовал завести бекап без чекпойнта, он чаще не работоспособный получался
Владимир
как повезёт, с чекпойнтом всё окей
Fedor
Fedor
я рекомендую full_page_writes всё таки.
Dmitriy
все верно, бд откатится до ближайшего чекпойнта
ArtAnt
Fedor
только небезопасною
Владимир
только небезопасною
самое страшное это в бекапе будет несколькор неконсистивных транзакций
Владимир
которые или откатятся автоматом или в ручную
Владимир
это совсем не критично
Fedor
не, самое страшное будет, когда (не если, а когда) утечёт рутовый ключик.
Dmitriy
только небезопасною
почему? ПГ же при старте поймет, что его вырубили некорректно и начнет восстановление и при таком раскладе именно чекпойнт будет таковым, а если есть архив WAL, то при правильно restore_command потерь даже не будет
Владимир
Fedor
это часто и не нужно.
Fedor
гораздо проще, чем кажется)
Fedor
ну и славно.
Владимир
давайте не будем раздувать из мухи слона)
Владимир
если вам не нравится такой подход, это не значит что надо искать способ докапаться, лучше предложи вариант лучше, а мы послушаем
central
Fedor
d
Fedor
Владимир
psql, api
ну при малых объёмах базы возможно, с ростомэто вызывает проблемы, да и с маленькими бд так удобнее тупо
Fedor
ну и надо глянуть, можно ли там права нарезать, чтоб чекпоинт можно было без суперюзера делать
Fedor
Fedor
ладно, у тебя работает - гут. но о рисках надо, всё-таки, предупреждать.
Fedor
Fedor
кстати, для объёмов до десятков террабайт и pg_dump неплохо справляется.
Владимир
Владимир
Владимир
под словом не плохо боюсь у каждого свои требования))
central
Fedor
относительно транзакции при подключении
Dmitriy
Владимир
Владимир
Dmitriy
для меня это боль и именно поэтому zfs рассматривал для бэкапирования, но сам zfs не дает нужное количество IOPS для приложения, поэтому отказался. zfs медленный
Fedor
ага. хотя где-то видел стоечки на несколько miops
Fedor
у которых зфс внутрях
Владимир
Fedor
а, тогда да
Владимир
Fedor
там даже с энтропией сложности
Fedor
а не вы ли не так давно тут проводили тесты зфс в гугл компьюте?
Fedor
с постгресом и репликацией
Dmitriy
Fedor
вот интересно, чем закончилось
Dmitriy
вот интересно, чем закончилось
по сути ничем. ZFS для большой нагрузки настроить можно, но на хорошем "Железном сервере" с отдельными NVME рейдами для DATA и WAL файлов
Fedor
зато сколько потом сервисов будет от фс
Fedor
я тут лвм начинаю потихоньку считать бутылочным горлышком.
Alexander
cannot open 'draid2:4d:1s:11c': no such device in /dev
must be a full path or shorthand device name
подскажите кто сталкивался, что за ошибка?
George
George
не так ввели команду 99%
Alexander
ArtAnt
Доброго времени суток, кто-нибудь думал над тем, что например опция zfs_vdev_sync_write_max_active и множество ей подобных, включая на чтение и т.д. по сути не позволяют эффективно использовать разные типы носителей на одном хосте организованные в самостоятельные пулы, Т.е. если для nvme можно хоть 100 поставить и более, то в случае наличия HDD это уже может снижать производительность, а указывать отдельно для пула их нельзя. Правильный ли вывод напрашивается, что nvme, ssd, 3d-xpoin можно использовать, только как l2arc или slog в случаях когда в системе имеется хотя бы один пул состоящий из механических дисков? Т.е. можно ли однозначно утверждать, что система хранения на zfs организована неправильно (неэффективно) если одновременно присутствуют отдельные пулы, как на HDD так и на флэш памяти на одном хосте для которых выше указанные опции применяются одинаково?
d
Доброго времени суток, кто-нибудь думал над тем, что например опция zfs_vdev_sync_write_max_active и множество ей подобных, включая на чтение и т.д. по сути не позволяют эффективно использовать разные типы носителей на одном хосте организованные в самостоятельные пулы, Т.е. если для nvme можно хоть 100 поставить и более, то в случае наличия HDD это уже может снижать производительность, а указывать отдельно для пула их нельзя. Правильный ли вывод напрашивается, что nvme, ssd, 3d-xpoin можно использовать, только как l2arc или slog в случаях когда в системе имеется хотя бы один пул состоящий из механических дисков? Т.е. можно ли однозначно утверждать, что система хранения на zfs организована неправильно (неэффективно) если одновременно присутствуют отдельные пулы, как на HDD так и на флэш памяти на одном хосте для которых выше указанные опции применяются одинаково?
Смысл использовать SSD если HDD дешевле?