Stepan
Все диски живые.
жюн
Хорошо, ему и сата ссд будет хватать, поэтому особо не смотри на скорость, там всё равно не последовательное чтение
пул на хардах после определённого кол-ва дисков будто пошустрее саташника будет
Stepan
на реддите под катом такое: Apparently block cloning just aggrevates the issue... Какжется как раз мой случай
Vladislav
Все диски живые.
Тогда, самое банальное, у Вас iscsi таргет только один инициатор ведь трогает?
Stepan
Да. Только один. Там захардкожен ip откуда можно подключать. Паразитных подключений нет
Stepan
Как думаете, может влиять различие размера блока? На волюме volblocksize 16K. На ntfs 8k. То что читал, пишут. что самое плохое что может быть в такой ситуации это write amplification.
Vladislav
Block cloning это просто reflink
В теории конечно Вы могли наткнуться на этот баг, но если бы он был настолько постоянным и заметным - его бы раньше нашли
Stepan
sparse тогда тоже вряд ли влияет.
Fedor
@neurox как у этого бота запрет снимается ?
Привет! Удаляется из рестрикта в телеге, больше ничего не нужно. А кого забанило?
Vladislav
sparse тогда тоже вряд ли влияет.
Не влияет А память ecc?
Stepan
Нет.
Stepan
Хотя, сейчас уточню
Vladislav
Хотя, сейчас уточню
Если нет, рекомендую прогнать мемтест
Stepan
Ок. Попрбуем
жюн
Ок. Попрбуем
в iscsi можно дайджесты включить ещё
Алексей
Электричества не больше наматывается, чем выходит оплаты?)
вот, можешь полюбопытствовать http://th3van.dk
Алексей
(не моё)
George
https://github.com/openzfs/zfs/issues/15453
Eugen
Доброго дня суток. Если есть хранилище 10 дисков 2.5 sas по 900гб и 3 ссд по кеши разные. Как лучше зфс настроить. Я думал о одном ссд под l2 кеш, и 2 диска ссд зарейдить под запись. Весь массив по сути зарейдить в один пирог зфс. Это здравая мысль или если более путевые решения? Использовать буду для виртуализации разношерстой...
Eugen
Зфс 2.2.2
Fedor
В целом, нормально. Перед добавлением л2арк нужно забить оперативки до отказа.
D⁣en⁣is
А что за проц? Случаем не ryzen?
Нет, Xeon E5-2690. Сделал даунгрейд zfs на 2.1.11, посмотрим на результат. Пока нормально.
D⁣en⁣is
autotrim включен?
Уже спрашивали. Autotrim выключен, как был по-умолчанию, и ни один процесс ни юзерский, ни ядерный не висит в состоянии D.
Xash
По syncoid. Очень мощно грузит подсистему дисков. Не включайте в момент работы.
Юрий
/report
riv
Согласно инструкциям, получается скопировать снапшот один раз. Новый снапшот не получается отправить, потому что требует уничтожить на целевом датасете старый.
По тому что новые снимки нужно пересылать в инкрементальном режиме вручную или использовать syncoid (команда из пакета sanoid) для их автоматической репликации. Ещё надо будет что-то придумать, чтобы удалять уже пересланные снимки. Это очень дешевый и черезвычайно быстрый медод репликации, можно производить репликацию и через ssh-соединение, что работает в syncoid из ксробки
riv
Если снимков нет на стороне источников, а в текущем снапшоте изменились данные - засинкает разницу?
Ну так это уничтожит изменения данных в целевом датасете. Сключом --force он это сделает. Двустороння синхронизация - это не однозначная задача, которая как я понимаю должна решаться в каждом случае индивидуально, т.к. надо как-то разрешать конфиликты.
riv
Если снимков нет на стороне источников, а в текущем снапшоте изменились данные - засинкает разницу?
syncoid создает снимки на источнике, синхронизация проводится аномарно, передачей снимка за снимком.
Nikita
Если снимков нет на стороне источников, а в текущем снапшоте изменились данные - засинкает разницу?
Инкрементная передача снимков возможна только в одном случае - на источнике и приёмнике имеется снимок, относительно которого передаётся разница. Т.е. вы можете создать снимок 1, передать его. Создать снимок 2, передать его инкрементно относительно 1. Удалить снимок 1 (везде, или только в одном из местоположений) Создать снимок 3 и передать его относительно 2. Как только у источника и получателя пропадает общий снимок, инкрементная передача невозможна.
Nikita
Итог - в сравнении с rsync быстрее процентов на 15-20. Чудес нет. Но оно работает.
А преимущества передачи снопшотов по сравнению с rsync начинают быть заметны на инкрементной передаче, особенно, если файлов достаточно много. И при использовании снимков вы пропускаете этап проверки всех этих файлов.
Nikita
А снимок надо удалять? Он же сам не удалится.
Ну, смотря чем вы пользуетесь) В каких то программах его и создавать не надо, за вас всё софт делает.
Игорь
sanoid/syncoid
Vladislav
А кто как произносит ZFS? ЗедФС Или ЗФС
Nikita
А кто как произносит ZFS? ЗедФС Или ЗФС
ЗэФэС или ЗэтэФэС, по настроению)
Алексей
ЗэЭфэс
riv
есть еще zxfer, например... а для автоматизации создания снимков - zfstools. правда на линь их нужно немного подпиливать, но там не страшно. И у меня, вроде были линёвые форки, могу скинуть.
Буду благодарен. У меня жту функцию выполняют самописные bash-скрипты. Кстати, есть скрипт, который проверчет что всё впорядке с бекапом. Он создаёт sqlite-базу данных и записывает в неё: - информацию о хранящихся на backup-сервере снимках: их именах и giud; - подключается к каждому, указанному в конфигурации гипервизору proxmox, и записывсет в несколько таблиц в базе данных информацию о найденных виртуальных машинах, их zvol, снимках на этих zvol и отношениях между ними. Затем скрипт выполняет sql-запрос, кстати написанный chat-gpt :-) и вычисляет zvol и виртуальные машины у которых не найдено актуальных резервных копий и выводит предлагаемые правки конфигрурационных файлов к скрипту создания снимков и скрипту передачи снимков. Я понемногу допиливаю этот скрипт. Ближайщее время, план рую бобавить функционал сбора и сопоставления информации о smb- и nfs-шарах, хранящихся в zfs.
riv
Инкрементная передача снимков возможна только в одном случае - на источнике и приёмнике имеется снимок, относительно которого передаётся разница. Т.е. вы можете создать снимок 1, передать его. Создать снимок 2, передать его инкрементно относительно 1. Удалить снимок 1 (везде, или только в одном из местоположений) Создать снимок 3 и передать его относительно 2. Как только у источника и получателя пропадает общий снимок, инкрементная передача невозможна.
Поправочка: разницу можно отправлять не только между двумя снимками, но и мнжду снимком и закладкой (zfs bookmark). В отличие от zfs-снимков, zfs-bookmark не занимают места. Syncoid может после успешной передачи конвертировать переданный снимок в закладку, кроме того он автоматически продолжает прерванные передачи, что очень удобно.
riv
А снимок надо удалять? Он же сам не удалится.
Да, надо удалять, или конвертировать в закладки.
Eugen
Можно синкодом, там удалятся старые, останется только последний
riv
Зачем?
По тому, что из-за ниличия снимка, растёт занимаемое место при записи в пул. Подумайте о том, что снимок блокирует данные на которве он ссылается. Если вы удалили файл после создания снимка, место занимаемое файлом не высвободится пока вы не удалите все снимки, где этот файл существует. Если вы перезаписали часть файла после создания снимка, эта новая информация займёт свободное место и оно не освободится, пока существуют снимки блокирующие её удаление перезаписанной информации. Снимки это как машина времени.
Ivan
Не всякую БД
в худшем случае подьем со снапа равносилен потере питания
Andrey
Нет
riv
Нет
Приведите, пожалуйста, примеры. Я давно работаю с zfs и поднятие со снимка в точности соответствует ситуации неожиданной пртери питания. Не встречал баз данных, которые портятся от этого.
Vladislav
Буду благодарен. У меня жту функцию выполняют самописные bash-скрипты. Кстати, есть скрипт, который проверчет что всё впорядке с бекапом. Он создаёт sqlite-базу данных и записывает в неё: - информацию о хранящихся на backup-сервере снимках: их именах и giud; - подключается к каждому, указанному в конфигурации гипервизору proxmox, и записывсет в несколько таблиц в базе данных информацию о найденных виртуальных машинах, их zvol, снимках на этих zvol и отношениях между ними. Затем скрипт выполняет sql-запрос, кстати написанный chat-gpt :-) и вычисляет zvol и виртуальные машины у которых не найдено актуальных резервных копий и выводит предлагаемые правки конфигрурационных файлов к скрипту создания снимков и скрипту передачи снимков. Я понемногу допиливаю этот скрипт. Ближайщее время, план рую бобавить функционал сбора и сопоставления информации о smb- и nfs-шарах, хранящихся в zfs.
А зачем? https://github.com/psy0rz/zfs_autobackup
riv
Нет, это старые снимки хранят, они хранят вес изменений в фс, если синкать и избавляться за одно от старых, то ничего лишнего балластом храниться не будет.
На нагруженных по io системах, сразу после создания снимка нсчинается рост занятого места. Представьте что это относительна не большая и дорогая ssd с базой данных, какой-нибудь optane. По этому, лучше всего как можно быстрее передать снимок к месту его хоанения и конвертировать переданный снимок в закладку, что высвободит всё занятое место.
riv
А зачем? https://github.com/psy0rz/zfs_autobackup
Изучу. У меня есть ряд требований к системе, например, у меня сотни vm и они постоянно создаются и удалчются. Я так автоматизировал проверку актуальности бекапов и их наличие для новых машин.
Andrey
Сами по себе бд на zfs не портятся, тут все так. Использоваие снапшотов для клонирования бд, в частности oracle, вот тут появляются нюансы. Я тоже давно использую zfs
Eugen
Могу потом скинуть строку команды с ключами, и все четко.
Кот Матроскин
Кто то использовал WD Purpure под RAIDZ? А то выше говорили что они ошибки пропускают, но ведь там стриминг только при использовании соответствующих ATA команд, а по умолчанию обычный диск с TLER и не более того.
Vladislav
Кто то использовал WD Purpure под RAIDZ? А то выше говорили что они ошибки пропускают, но ведь там стриминг только при использовании соответствующих ATA команд, а по умолчанию обычный диск с TLER и не более того.
??? Это логика работы самого микрокода контроллера HDD. "Это интерфейс, который все жесткие диски с поддержкой Streaming Feature Set предоставляют хост-контроллеру. А вот как диск распорядится полученными параметрами — вопрос к микропрограмме. Набор алгоритмов AllFrame, разработанных WD для дисков Purple, пришел на смену «технологии» SilkStream, которая применялась в дисках WD-RE GP."