Dmitry
Плюс dataset планирую нафаршировать smb бекапом винды (16тб) и qcow2 образами в районе 10-15 тб
Станислав
А как они позволят мне хранить 100 копий 1 тб данных?
Какая активность по записи? Сколько пишется в среднем в сутки и какая максимальная запись в самые активные часы?
Dmitry
Какая активность по записи? Сколько пишется в среднем в сутки и какая максимальная запись в самые активные часы?
Сейчас в ssd хранилку 2 тб записи 2 раза в неделю, потом в dedup Планирую в районе 2 тб(из ~5 источников) понедельник среда пятница плюс суббота в 3 часа ночи примерно 10 тб и 1 тб в течении недели от удаленщиков
Combot
Вероника был(а) забанен(а)! Причина: CAS-бан.
Combot
Антон Дементьев был(а) забанен(а)! Причина: CAS-бан.
Combot
Евгений был(а) забанен(а)! Причина: CAS-бан.
Combot
Евгений был(а) забанен(а)! Причина: CAS-бан.
Vladislav
Вам бы исходную задачу понять, а потом уже искать её решение
Vladislav
Ибо 94 608 000 снапшотов / бэкапов, звучит мягко говоря херовой затеей
Aleks
1095 же
Vladislav
1095 же
А, неправильно понял смысл "в любую секунду"
Fedor
Сначала нужно рассчитать, сколько будет иопс в часы наибольшей нагрузки на пулы. Есть риск, что по иопсам просто не пролезет
Fedor
С физикой спорить бесполезно
Fedor
Гигабиты в секунду лишь опосредованный показатель. Надо считать количество операций ввода-вывода на диски со стороны системы.
Fedor
Например, 1000 операций в секунду размером 4кб - это 4мб в сек, а размер операции в 256кб - уже 256мб в сек
Fedor
И будь хоть 100500 гигабит на входе, если операции маленькие, и всего 1000 операций в секунду, выше 4мб в сек не поднимется
Vladislav
Либо я что-то пропустил в изначальном вопросе
Dmitry
Вроде файлопомойка
В том числе файлопомойка, но на 2-5 клиентов, так что основная задача — бекап
Fedor
Раздели задачи по пулам. Бекап на одни, файлопомойка на другие диски
Fedor
Нужен ли для бекапа зфс- непонятно
Fedor
Особо плюсов не видно пока что
Dmitry
Нужен ли для бекапа зфс- непонятно
Дедубликация мне очень понравилась для бекапа
Fedor
А ты в несжатом виде будешь лить?
Fedor
Тогда, может, и норм будет. Арк на бекап пулах ни к чему
Fedor
Бекап помойки делай в другое место, иначе это не бекап, а подобие, которое ты потеряешь
Dmitry
Тогда погляжу что вообще можно использовать в качестве заменителя той системы что я построил, ибо RSYNC+снапшот идеально работает, а главное просто
Fedor
В части бекапов вероятно да. Я про то, что данные и бекап этих данных (я про помойку) хранить на одном сервере не очень
Dmitry
Понял, благодарю, подумаю тогда над реализацией помойки
Илья
В части бекапов вероятно да. Я про то, что данные и бекап этих данных (я про помойку) хранить на одном сервере не очень
Можно и на одном сервере, главное на разных пулах ,если сломается сервер диски с данными можно запустить и на другом
Fedor
Можно и на одном сервере, главное на разных пулах ,если сломается сервер диски с данными можно запустить и на другом
Если сервер в минус, например, после атаки или по третьим причинам, бекапы тоже
Dmitry
Если сервер в минус, например, после атаки или по третьим причинам, бекапы тоже
У нас критическая инфраструктура шифруется(на том же сервере) и отправляется на сервера "третьих лиц", плюс есть бекап судного дна(я) раз в пол года, так что тут можно не волноваться
Илья
Если сервер в минус, например, после атаки или по третьим причинам, бекапы тоже
Ну если учитывать все риски то одним сервером не обойтись
Alexander
Дедупликация в теории выглядит красиво, но реально она не нужна. Если у вас задача - делать бэкапы каждые сутки и при этом данные не особо сильно меняются то снепшоты и инкрементальный zfs send это то что доктор прописал. Делаете регулярные снепшоты и посылаете их на резервный сервер. Передается только diff так что и сеть не перегружается. Ну отправка первого снепшота это полная передача
Alexander
Собственне шифрование не отменяет вирус шифровальщик
Именно! Снепшоты тем и хороши что они readonly + разделение ресурсов для файлопомойки для малых групп юзеров, а не “всем все” тоже помогает.
Alexander
А если потом нужно какой-то снепшот превратить быстро в живой датасет - то есть клон, одна команда и у вас дата-сет готовый на запись. А еще есть плагин для самбы который позволяет юзерам видеть снепшоты прямо в проводнике Windows и самим выдергивать файлы из бэкапа что снижает очень сильно нагрузку на админов если есть файлопомойка просто
Alexander
Но если там виртуалки то можно использовать zfs volume - я сам не использовал но вроде проксмокс юзает
Alexander
в общем чтобы правильно готовить zfs рекомендуется ее изучить, в ней тесно переплетены volume manager и собственно файловая система, поэтому без понимания можно либо разочароваться либо данные потерять
Alexander
Что за плагин? Любопытно)
https://github.com/zfsonlinux/zfs-auto-snapshot/wiki/Samba
Alexander
Я снепшоты делаю иначе, но это не важно - там есть указание формата. Ничего сложного нет, работает
LordMerlin
На старом сервере, который хотим сделать сервером pbs, стоять 8мь сата дисков по 1тб. Лучше сделать raidz2 или например raid60?
LordMerlin
raidz 20
Хе-хе-хе
Alexander
На старом сервере, который хотим сделать сервером pbs, стоять 8мь сата дисков по 1тб. Лучше сделать raidz2 или например raid60?
Что такое RAID60 - вы хотите что 8 дисков в mdraid 6 ? Без zfs? с zfs вы выбираете из raidz1/2/3 - насколько важные данные, сколько дисков вы готовы потерять. Можно хоть просто stripe пул собрать если делаются снепшоты постоянно и посылаются на другой сервер где raidz3 скажем
Alexander
В плане? Два raidz2 в stripe
Я имел ввиду именно что вы имеете ввиду, что означает аббревиатура я знаю
Alexander
но у вас всего 8 дисков, вы собираетесь потерять таким образом 4 на избыточностьЮ?
Alexander
тогда уж надежнее будет страйп RAID14 ))
Alexander
Все зависит от ценности данных, может вам вообще страйп обычный нужен
LordMerlin
Про ценность данных, скажем так, ещё один сервер хранения бэкапов.
Alexander
Про ценность данных, скажем так, ещё один сервер хранения бэкапов.
Для бэкапов важен обьем. 8 дисков немного, raidz2 вполне достаточно, надо только мониторинг дисков/zpool status
Alexey
Есть условия по количеству дисков в массиве
Aleksandr
Коллеги, по вашему опыту, 2 NVME в ZFS mirror на сколько потеряю в производительности примерно? 20/30/50 % ?? Хочу проксмокс, не хочу mdadm городить. Планируется 1С + Postgress ну и мелочь всякая
Nik
тут еще от ссд много зависит) Бытовые сдуются быстро, как кэш закончится. Стоит парочка, а вот типа pm1735 хорошо себя ведет.
Dmitry
тут еще от ссд много зависит) Бытовые сдуются быстро, как кэш закончится. Стоит парочка, а вот типа pm1735 хорошо себя ведет.
А в raid1 не работает trim, если у ssd нет автоматической уборки мусора, то кеш закончится в первый месяц, и начнется деградация по производительности + будет кушаться ресурс
Aleksandr
Мое мнение, БД всегда должна быть ближе к железу, максимально
только если у вас прям супер пупер нагрузки на БД, мега хайлоад шо пипец, а в остально похер, хоть в докере запускай
Aleksandr
чем навороченней и быстрее ssd, тем больше будет разница.
в плане больше будет деградация по производительности? вроде наоборот должно быть
Combot
Алина Соколова был(а) забанен(а)! Причина: CAS-бан.
Ivan
в плане больше будет деградация по производительности? вроде наоборот должно быть
при хорошем ssd разница io между vm и контейнером может достигнуть более 30%. когда как на hdd или дешевых ssd не будет заметно абсолютно никакой разницы. так же и с zfs получается.
Dmitry
разве zpool set autotrim=on не пашет?
Самому интересно теперь
Dmitry
Но вообще я бы не использовал гражданские диски для серверных задач, единственное что я себе позволяю — топовые гражданские самсунги под root+swap А серверным trim не нужен, они сами могут в уборку мусора
Combot
Valeriy был(а) забанен(а)! Причина: CAS-бан.
Combot
Полина Васильева был(а) забанен(а)! Причина: CAS-бан.