Vladislav
Konstantin
Окей, понял. А по поводу дизайна системы. В целом может быть есть какие-то советы, как правильнее сделать NAS на ZFS для большого количества данных?
Vladislav
тут уже индивидуально.
Зависит от:
кол-ва и типов дисков.
типа синхронизации данных.
Необходимости шифрования.
Кол-ва передаваемых снапшотов и частоты.
Konstantin
Понятно. Спасибо ;)
George
Привет всем.
#вопрос: Нормально ли использовать FreeNas с огромным объемом RAM, SSD под SLOG и включенной дедупликацией на одном сервере, и при этом делать бэкапы в другой FreeNas/чистый ZFS с ресурсами на несколько порядков скромнее? Собственно вопрос наверно в том, как будет работать при этом дедупликация и сжатие? Умрет ли второй сервер от требуемого RAM для дедупликации большого zpool или zfs как-то умеет "перекидывать" DDT между своими "братьями"?
В целом, хотелось бы услышать, как правильно организовать подобную схему? Данных много, один сервер боевой (с большим кол-вом ресурсов), второй только для бэкапа и восстановления с него (не для пользовательской нагрузки).
Спасибо!
У zfs send есть ключи для передачи данных "как есть на диске" в сжатом или дедуплицированном виде, по идее они не должны жрать ресурсы на сервере-приёмнике, потестите. Ddt в памяти нужен только для записи, т.е. На чтении много озу вам для него может не понадобиться
Konstantin
Отлично. А вот еще момент, принципиальный. Что лучше с FreeNas(FreeBSD) связываться или все таки на Debian(Linux) пробоваться с ZFS?
George
Konstantin
Sergey
Там практически на каждый чих ключик есть, шифрование вообще нативное классно сделали - можно передавать на сервер-приёмник без ключа на нём, а потом и целостность проверять без ключа, raw режим передачи. Осталось подождать пока перформанс шифрования поднимут, там патчики уже есть, на aes-gcm перейти хотели
стремно что периодически вываливаются issue с репликацией, то write holes, то с шифрованием корраптилось, даже недавно файлы при копировании становились нулевыми, но вроде все фиксится, только релизится потом долго)
Sergey
где-то слышал хотели модель релизов менять
Sergey
это да, я пока под бекап его планирую в одном месте юзать только
Sergey
заодно и посмотрю как пашет
Sergey
@gmelikov кстати ты недавно упоминал, что тебе подход sanoid не нравится, можно узнать почему?
Sergey
Sergey
для реплиации или снапшотов?
George
и не помню есть ли там prune снапов старых
Sergey
есть
George
Sergey
я делаю рекурсивные снапшоты и рекурсивную репликацию и там и там эксклюд возможен
Sergey
из снапшотов просто задается по нулям из репликации есть --exclude regex
George
Sergey
каким снапшотам?)
Sergey
ну с одной стороны конфиг неудобно, а с другой там в нем удобные темплейты
Sergey
и возможность позадавать разные опции для разных датасетов(только для тех, что в исключениях)
Sergey
и помоем можно из репликации исключать опциями самих датасетов
Sergey
а prune есть иначе половина смысла конфига потерялась бы)
Sergey
а не атомарные имеется ввиду, что он делает не zfs snap -r ?
George
каким снапшотам?)
Ну есть у тебе датасет с вложенными датасетами, zfs умеет атомарно сделать им снапшоты, а саноид этого не умеет и делает отдельно
George
Sergey
хм, интресно
George
Sergey
я думал в зфс это тоже не атомарно будет, чисто для удобства опция
George
Sergey
но если делать snap -r тогда эксклюдить тоже не получится
George
Sergey
ну блин, это тоже костыль)
George
Вообще на домашнем пк у меня с давних времён zfs auto snapshot, тупой как пробка и потому удобный. И есть тулзы которые умеют юзать его снапы. Это ещё одна причина
George
Но тут реально вкусовщина
Sergey
синкойд по идее вообще любые снапшоты умеет юзать
Sergey
это да, с атомарными -r это хорошая новость
George
Sergey
надо им предложить такую возможность запилить
George
George
Sergey
надо посмотреть, может сделали, у них рекурсии вообще недавно не было, а сейчас есть
Sergey
мне у других не нравится отсутствие всяких _hourly _daily и остальных приписок
Sergey
сложно отслеживать в мониторинге, что последний часовой\дневной\недельный не старый и их кол-во
George
Sergey
может, но тут сразу и синкалка и снапшотилка, а auto snap -r умеет?
Sergey
вообще в zrepl вроде суффиксы задавать можно, но уж большо он замороченый)
George
А у этих для заббикса даже есть https://github.com/psy0rz/zfs_autobackup#monitoring-with-zabbix-jobs
Sergey
из плюсов только возможность по тцп гонять, но с хардварным шифрованиеп по ssh и тк больш 5 gbit просасывает(быстрее писать не смогло)
George
George
Sergey
так парсить проще)
Gustavo Imputsa
George
Gustavo Imputsa
Что за патчи, нагуглить не удалось
Vladislav
Если кто-то использует sanoid/syncoid, можете пояснить создание несколько снапшотов для синхронизации? по крону синхронизация вызывается раз в минуту...
pool/dir1@syncoid_master.domain.com_2020-03-08:00:48:02 240K - 22,9G -
pool/dir1@syncoid_master.domain.com_2020-03-08:00:49:02 0K - 22,9G -
Sergey
я использую на существующих снапшотах, но по идее предидущий синхронизированный должен присутствовать
Sergey
иначе между чем и чем он будет diff для репликации делать
Vladislav
кое-кто тестировал ZFS на большой базе (в конце поста).
https://habr.com/ru/company/citymobil/blog/492172/
Fedor
Какие няши.. всего три терабайт
Ivan
чувствуется нотка боли 😂
LeiDruid
LeiDruid
Делаю sync и снапшот следом
LeiDruid
А со снапшота потом на бэкап-сервер
LeiDruid
Храню 2 копии
LeiDruid
Но у меня есть нюанс - потеря небольшого( и даже большого) кол-ва записей не критична, можно потом «догнаться»
LeiDruid
С целостностью бэкапов (если сам не профапал результаты скраба) никогда проблем не возникало
George
Ivan
ахах
Ivan
лучше бы бд в раму положили
Ivan
терять так терять