Vladislav
Только вы не raid 1 проучите а кастрированный raid 10
он уже по второму кругу одни и те же вопросы спрашивает.
Arseniy
он уже по второму кругу одни и те же вопросы спрашивает.
Извините, что доставляю неудобства вам🤷‍♂
Animal
Привет всем. Ну что тут у нас? Арсений все баламутит? :)
Georg🎞️🎥
он уже по второму кругу одни и те же вопросы спрашивает.
Ну и что 🤷🏻‍♂️ а вы с первого раза все разве усваиваете
A1EF
А, вот как работает. Спасибо большое!
С точки зрения ZFS пул составляется из vdev, а что в них - единичный диск или страйп или ещё что, то от вас зависит
Алина
Привет всем:)
Vladislav
Привет всем:)
Мокрые части тела детектед...
Georg🎞️🎥
Привет всем:)
Мой cvv 666 .. срочно вышли фото 🥰😱
Дмитрий
Коллеги, привет. Направьте в правильную сторону, пожалуйста. Есть 4 hdd 4tb, 1 ssd 1tb. Задача - собрать из этого файлопомойку для торрентов, фильмов(эти две категории вообще не жалко), фото-видео, бекапы двух ноутов(timeMachine регулярно обновляющий свою папку). Основное пожелание- как-то ускорить timeMachine, это эппловское поделие сильно насилует диски рандомным чтением и записью. Если два ноута начинают одновременно бекапиться, то вообще все плохо. Кажется что зфс ощутимо поможет кешами. Сейчас рассматриваю два варианта 1)Zraid1 + slog на ссд 2)2 диска в зеркало + slog на ссд для важного, 2 диска как vdev в пул без резервирования Что лучше? Или может покритикуете и что-то лучше предложите?)
Дмитрий
Ссд не Энтерпрайз, но и не совсем дешман который быстро убьется. 970 evo plus. Ну и разумеется не весь диск на лог, а кусочек небольшой отрезать. Оперативки на arc гигов 8-12 найдется
Arseniy
Я новичок, но я бы по 2 варианту пошел)
Дмитрий
тоже к нему склоняюсь) Решил пособирать мнения
Vladislav
Slog это не совсем кэш на запись
Vladislav
Торренты очень сильно насилуют диски
Vladislav
"However, the SLOGs primary function is not as a performance boon, but to save data that would otherwise be lost in the event of a power failure. "
Arseniy
Торренты очень сильно насилуют диски
Пусть насилуются 4+4Тб в страйпе, у него такая возможность есть
Дмитрий
спасибо, тогда не буду мучать ссд, соберу 2 пула на хардах)
Vladislav
https://www.reddit.com/r/zfs/comments/m6ydfv/performance_effects_of_slog_on_ssd_and_ram_disk/
Vladislav
Полезные скриншотики
Сергей
Коллеги, привет. Направьте в правильную сторону, пожалуйста. Есть 4 hdd 4tb, 1 ssd 1tb. Задача - собрать из этого файлопомойку для торрентов, фильмов(эти две категории вообще не жалко), фото-видео, бекапы двух ноутов(timeMachine регулярно обновляющий свою папку). Основное пожелание- как-то ускорить timeMachine, это эппловское поделие сильно насилует диски рандомным чтением и записью. Если два ноута начинают одновременно бекапиться, то вообще все плохо. Кажется что зфс ощутимо поможет кешами. Сейчас рассматриваю два варианта 1)Zraid1 + slog на ссд 2)2 диска в зеркало + slog на ссд для важного, 2 диска как vdev в пул без резервирования Что лучше? Или может покритикуете и что-то лучше предложите?)
на сколько там случайное чтение большое? sync=disabled поставьте и почти счастье будет. я бы 2 4тб в страйп собрал на торренты 2 тб в миррор, туда терабайтный диск кэшем и отключил sync и должно сносно работать
Сергей
кеш - l2arc?
да. если там одно и то же будет повторно перечитываться, то должно помочь. диск большой, данных там четверть будет жить
Дмитрий
чтение сильное из-за зашифрованных бекапов от огрзыков. В Кишках не копался, но на вид похоже что оно читает блок, расшифровывает на клиенте, правит что хочет, пишет обратно
Дмитрий
то есть при изменения на 10ГБ, которые висят в очереди бекапов получаю за время синхронизации примерно 8гб чтения и 11-12 записи
Сергей
то есть при изменения на 10ГБ, которые висят в очереди бекапов получаю за время синхронизации примерно 8гб чтения и 11-12 записи
местные гуру подскажут лучше, но в таком кейсе я подозреваю, что л2арк будет чуть более, чем бесполезен)
Дмитрий
вот да, интересовал больше кеш на запись, что бы оно, условно, читало с дисков, писало на ссд если диск занят. И потом уже с ссд сливано на диски. Но выше правильно сказали, slog про другое всё же
Дмитрий
это вам в примокэш и эти ваши винды
хотелось без садомазо) Винду точно нафиг. Проще ссд докинуть чисто под бекапы, чем винду ставить. На нее прям жуткая аллергия))
Дмитрий
Time capsule не ? )))
внутри нее будет тот же хард на пару тб, в чем профит?
Georg🎞️🎥
внутри нее будет тот же хард на пару тб, в чем профит?
Профит что все работает из коробки и для этого сделанно, чтобы вы на форуме не сидели и не искали решений )))
Дмитрий
оно такое же тормозное, тестили. Два устройства на одну коробочку = ей плохо
Дмитрий
а дома именно 2 ноута, и на обоих за день вываливается по 30-50гб изменений, который надо по сети слить
Georg🎞️🎥
Ноут есть воздух, воздух само по себе тормозно
Дмитрий
ноут воткнут в type-c -> eth на постоянной основе
Дмитрий
там честный гигабит
Georg🎞️🎥
Ну если вы в ноут втыкаете гигабит, тогда LaCie или Promise Pegasus Thunderbolt хранилище вам в помощь )) на 5 или 2 винта ))
Дмитрий
или внешний ссд в тот же тайпси запихать и радоваться, да) Задача стоит не купить понтовых железяк, а по старой доброй традиции собрать их того что дома без дела лежит)
Дмитрий
с возможным максимумом, разумеется. Я понимаю что бывают решения быстрее, интересует именно как текущий конфиг с макс пользой применить
Georg🎞️🎥
Строить zfs из 2-3 винтов мне видится извратом, есть готовые недорогие системы для этого, которые будут надёжнее вашего самосбора и дешевле
Georg🎞️🎥
К тому же скорость обращения по тандерболту будет вообще отличная ))) минус тормоза ))
Дмитрий
Строить zfs из 2-3 винтов мне видится извратом, есть готовые недорогие системы для этого, которые будут надёжнее вашего самосбора и дешевле
эта же железка крутит виртуалки, однонодовый кубер и кучу другого полезного и не очень домашнего добра. И есть место под диски свободное
Дмитрий
Ааа, простите , не углядел что ещё кучу всего вам там надо 👋
поэтому вопрос стоит не "как лучше бекапы к ноуту прикрутить", а "как железки правилно нарезать") Но за идеи в любом случае спасибо!
Georg🎞️🎥
поэтому вопрос стоит не "как лучше бекапы к ноуту прикрутить", а "как железки правилно нарезать") Но за идеи в любом случае спасибо!
👋👋👋 Да, просто бывает эти железки дёшево продают , а они ого ещё себе , 700MB массив выдаёт на 6 винтов 👋
Stanislav
Коллеги, добрый день. Столкнулся со странной ситуацией. Есть zfs пул размером 16,3 Тб, который согласно zpool list занят на 15,1Т. При этом согласно zfs list -o space вроде как нет таких потребителей (см. по колонке USED) ~ 7Тб. Я знаю что zfs часть места забирает под свои нужны, но это вроде как не больше 5%. snapshots почищены. Собственно хочется понять где место? спасибо
Stanislav
как это посмотеть, увы мне система досталась по наследству
George
zpool status покажите
Сергей
как это посмотеть, увы мне система досталась по наследству
правильное место в zfs list в zpool оно без учета лишних дисков
Stanislav
sudo zpool status pool: work state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM work ONLINE 0 0 0 raidz1-0 ONLINE 0 0 0 ada2 ONLINE 0 0 0 ada3 ONLINE 0 0 0 ada4 ONLINE 0 0 0 raidz1-1 ONLINE 0 0 0 ada5 ONLINE 0 0 0 ada6 ONLINE 0 0 0 ada7 ONLINE 0 0 0 raidz1-2 ONLINE 0 0 0 ada8 ONLINE 0 0 0 ada9 ONLINE 0 0 0 ada10 ONLINE 0 0 0 logs mirror-3 ONLINE 0 0 0 gpt/log0 ONLINE 0 0 0 gpt/log1 ONLINE 0 0 0 cache gpt/cache0 ONLINE 0 0 0 gpt/cache1 ONLINE 0 0 0 errors: No known data errors pool: zroot state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM zroot ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 ada0p3 ONLINE 0 0 0 ada1p3 ONLINE 0 0 0 errors: No known data errors
Сергей
а что zfs list zpool list говорят?
Stanislav
sudo zfs list NAME USED AVAIL REFER MOUNTPOINT work 6.89T 3.63T 29.3K /work work/luns 1.42T 3.63T 29.3K /work/luns work/luns/ves_stroage 1.42T 3.63T 1.42T - work/vm 5.47T 3.63T 1.03G /work/vm work/vm/coder 4.84T 3.63T 39.3K /work/vm/coder work/vm/coder/disk0 4.84T 3.63T 4.84T - work/vm/ifeone 627G 3.63T 42.0K /work/vm/ifeone work/vm/ifeone/disk0 627G 3.63T 627G - work/vm/review 16.6G 3.63T 37.3K /work/vm/review work/vm/review/disk0 16.6G 3.63T 16.6G - zroot 8.77G 87.6G 88K /zroot zroot/ROOT 7.98G 87.6G 88K none zroot/ROOT/default 7.98G 87.6G 7.98G / zroot/tmp 260K 87.6G 260K /tmp zroot/usr 713M 87.6G 88K /usr zroot/usr/home 304K 87.6G 304K /usr/home zroot/usr/ports 713M 87.6G 713M /usr/ports zroot/usr/src 88K 87.6G 88K /usr/src zroot/var 48.8M 87.6G 88K /var zroot/var/audit 88K 87.6G 88K /var/audit zroot/var/crash 88K 87.6G 88K /var/crash zroot/var/log 13.2M 87.6G 13.2M /var/log zroot/var/mail 35.2M 87.6G 35.2M /var/mail zroot/var/tmp 88K 87.6G 88K /var/tmp
Stanislav
sudo zpool list NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT work 16.3T 10.4T 5.96T - - 20% 63% 1.00x ONLINE - zroot 99.5G 8.77G 90.7G - - 18% 8% 1.00x ONLINE -
Stanislav
упс, откуда то приросло 5,96Tb
Stanislav
час назад было сильно меньше
Владимир
Stanislav
ну я удалил, и после этого не было еще места
Владимир
ну я удалил, и после этого не было еще места
а оно не мгновенно появляется
Владимир
оно типа через какое-то время возвращает место в доступное
Stanislav
а тогда понятно :/
Stanislav
можно сказать, не дождался :)
Сергей
упс, откуда то приросло 5,96Tb
ну т.е. вопрос решен?)
Stanislav
да, спасибо
Arseniy
А снапшот хранится там же на пуле?
Nick
Да я думаю, что у большинства типа: while true; do nc -l -p 9904 | mbuffer -q -s 128k -m 8G | pv | zfs receive blablatank/blablavol o ; done
И все бы хорошо в таком способе, да примерно все БД внутри контейнера оказываются сломаны. (хотя минимизировать последствия можно, но все равно без гарантии и не полностью)
Nick
8 метров запаса будет, если вдруг диски по размерам отличаются
это не потому что zfs, а потому что выравнивание
Shaker
Со снимком всегда так будет, если ты бд локально не бэкапируешь.
Shaker
ну и на последнюю транзакцию у тебя данные будут
Nick
ну и на последнюю транзакцию у тебя данные будут
зависит и лишь при очень удачном стечении обстоятельств
Nick
и даже очень оптимистично - данные будут, а консистентность - если супер сильно повезет
Shaker
В общем, снапшот и бэкап, это конечно про другое, согласен. Есть вопросы к консистентности.