Николай Орлов
Создавая из них пул я указал a shift 12
Sergei
диски нарезаются на слайcы по 2^ashift
Николай Орлов
Ну да есть такое
Sergei
а recordsize и volblocksize отщипывают этими слайсами
Sergei
ни в коем случае
Sergei
Vladislav
#вопрос
Имеется такая разметка боевого сервера:
root@167 ~ # lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 8G 0 part
│ └─md0 9:0 0 8G 0 raid1 [SWAP]
├─sda2 8:2 0 512M 0 part
│ └─md1 9:1 0 511M 0 raid1 /boot
└─sda3 8:3 0 215,1G 0 part
└─md2 9:2 0 215G 0 raid1
├─vg0-root 253:0 0 12G 0 lvm /
├─vg0-tmp 253:1 0 8G 0 lvm /tmp
└─vg0-home 253:2 0 195G 0 lvm /home
sdb 8:16 0 223,6G 0 disk
├─sdb1 8:17 0 8G 0 part
│ └─md0 9:0 0 8G 0 raid1 [SWAP]
├─sdb2 8:18 0 512M 0 part
│ └─md1 9:1 0 511M 0 raid1 /boot
└─sdb3 8:19 0 215,1G 0 part
└─md2 9:2 0 215G 0 raid1
├─vg0-root 253:0 0 12G 0 lvm /
├─vg0-tmp 253:1 0 8G 0 lvm /tmp
└─vg0-home 253:2 0 195G 0 lvm /homeесть ли какой-то пошаговый how-to по миграции на zfs с минимальным даунтаймом?
Николай Орлов
еще никак не могу побороть, при загрузке rpool bpool импортируются без проблем и все datasets с ними, а пул с raidz ни в какую не хочет, пока не впишу команду импорт в zfs-mount.service
Д
Ребята у меня Ноды сожрали всю память с zfs
Д
Память вернется или ограничивать?
Д
А по русски
Д
без ссылок
Д
заббикс орет
Evgenii
вернется, как только понадобится. Если понадобится слишком резко и слишком много, ZFS может не успеть отдать, в этом случае можно добавить ограничения.
Evgenii
заббикс орет
у zfs дизайн такой - утилизация всей доступной памяти на благо скорости доступа к данным.
Evgenii
заббикс орет
мониторинг памяти видимо нужно делать сложнее, с учетом текущего потребления памяти ARC кэшем, небось такое уже кто-то сделал, погуглите
Alexander
Заббикс орет - shutdown заббикс)))
Fedor
Александр
Fedor
ну, может я старьём пользуюсь - иллюмос
Fedor
а что является триггером к отдаче памяти?
Fedor
маловероятно.
Fedor
лиюо этот хук, который там повесили, тормозил бы всю систему
Fedor
в ммапе который например
Fedor
Evgenii
Не знаю как оно там внутри работает, но если запускать контейнеры в Proxmox один за одним на "поработавшем сервере", то график использования памяти резко упадет с ~90% до примерно 70%..
То есть мы запускаем новые контейнеры,а свободной памяти становится больше.
Если посмотреть ARC кэш, он ожидаемо станет сильно меньше.
С виртуалками прокатывает, только если стартовая. память для VM меньше оставшейся свободной памяти на сервере
Evgenii
ZFS возвращает память большими порциями.
George
Владимир
Владимир
ставил на чистку кеш внутри виртуалки и на целевом проксе, таким образом удавалось успешно мигрироваться
Владимир
watch -n60 'sync; echo 3 > /proc/sys/vm/drop_caches'
Владимир
вот так)
George
увы это и с другими ФС может быть, pagecache тоже не моментально может сработать емнип
Evgenii
Проще увеличить объем неприкосновенной памяти для ZFS до нескольких гб, чтобы на старт одной VM хватало наверное
Николай Орлов
вопрос
Николай Орлов
есть 2 снапшота можно ли востановить систему из первого
Николай Орлов
или обязательно удалять более новый
Николай Орлов
хочу восстановить первый, но потом примонтировать 2ой и перенести нужные данные
Николай Орлов
или это не возможно
George
Владимир
Без клонов
Владимир
Я не пробовал так, но начитавшись теории у меня есть ощущение что так можно
George
Николай Орлов
Вчера сделал send в файл, а потом recive в dataset
Nikolay
Всем привет!
У меня пул из hdd и только на special и slog ssd.
Сейчас сделал autotrim=on и по субботам zpool trim в кроне.
Стоит использовать trim ? В некоторых статьях пишут что это "опасно" даже. Можно и без трима спокойно жить
George
Nikolay
а как часто autotrim срабатывает ?
George
George
см. https://openzfs.github.io/openzfs-docs/Performance%20and%20Tuning/Module%20Parameters.html#trim плюс маны https://openzfs.github.io/openzfs-docs/man/8/zpoolprops.8.html
George
плюс код, если точно знать логику актуальную хочется
George
там не простая логика с набором кучки блоков под дальнейший трим
Nikolay
Dmitry
всем привет! мы тестируем postgres (реплику с вал шипингом) на zfs (ubuntu 16.04,18.04) на GCP и нам похоже нехватет производительности zfs на запись (реплика отстает от мастера). Пока не удается найти какого ресурса не хватает: CPU <50% (ни один из процессов не занимает ядро даже на 50%), LA ~8 при кол-ве CPU 16, IOPS ~1500 (FIO дает 3-4k). Подскажите пожалуйста как можно понять чего не хватает и что нужно покрутить? ( zfs пул создан поверх всего диска)
Олег
Dmitry
диски в 100% по бизи не упирается
Dmitry
или что-то другое имеется в виду
Олег
что-то другое в том числе
Олег
2е тюнили postgresql? и не конкурируют ли у вас за ОЗУ постгрес и zfs?
Ivan
Dmitry
все что можно со стороны postgres сделали (отключили синк, fullpagewrites, дали достаточно памяти buffers чтобы уменьшить запись)
Dmitry
>и не конкурируют ли у вас за ОЗУ постгрес и zfs? - как это можно понять?
Олег
Олег
И по симптомам вам perf бы поработать
Dmitry
> какова цель использования zfs в gcp ? - вся инфра в GCPнужно для функций ZFS по клонированию
Dmitry
пробовали perf смотреть - но у нас явно ожидания на запись а не на CPU (семплировали состояние процесса постгреса)
Сергей
George
George
а так выше верно написали, смотрите iostat, zpool iostat
Сергей
Dmitry
>пул создавали с донастройкой под постгрю? конкретно хотя бы recordsize интересует — пробовали 8к и 128к, именно накат логов быстрее идет при 8, 128 лучше в другой нагрузке вроде создание индексов, но даже 8к недостаточно быстро
Dmitry
> а так выше верно написали, смотрите iostat, zpool iostat — а что именно смотреть - все метрики далеки от 100%
Сергей
Dmitry
пробовал sync включенный и выключенный - нет разницы
Dmitry
в этом и проблема что не понятно во что мы упираемся