Fedor
в многопотоке получалось читать-писать?
Fedor
например, пока медленно идет запись, ты читаешь
Fedor
или там так же однопоток?
Artem
Я такое не тестировал, у нас немного записи было. Но это же базовое зеркало.
Fedor
по примеру того что в сан сетях
Artem
Хз, как оно пустит на чтение, если запись не закончилась.
Fedor
ага, я об этом
Fedor
спасибо за инфу!
Artem
Попробуй, расскажешь )
Fedor
да пока кейсов применения нет, но возьму на заметку для бомж-вариантов))
Fedor
где надо быстро стараюсь ссд пихать
Artem
Сейчас-то уже везде allflash, кроме дисков для давних бекапов. А тогда мы и с хдд могли жить, но с ссд было гораздо приятнее, поэтому такую схему юзали
Artem
AllFlash не так доступно по цене пока еще , для больших хранилищ 🤔🤷🏻‍♂️
Для наших задач хватает, поэтому с удовольствием используем 😎
Artem
О каких объемах речь ?🤔
Не трёхзначных 😉
Georg🎞️🎥
Не трёхзначных 😉
Да , вас в плену не расколят👍
Nick
если верить спецификациям диска где написано что диск - CMR, то что лучше (надёжность считаем одинаковой) - 4-6 дисков на 12-18 тб в raidz1-2 или 12 дисков по 4 тб в raidz3? Под бекапы, размер большинства файлов между 1 и 5 мегабайтами, в основном писать, иногда читать, а иногда пуржить старые снапшоты (суть много рендомно читать) А если в сервере LSI 2308 на 8 дисков, а остальное с материнки и чуть медленнее - что предпочесть - 2 раздельных raidz2 по 6 дисков, или все равно raidz3 на 12 дисков?
Maksim
raidz1 точно не стоит
Nick
какой странный выбор. наоборот выбор 4тб с raidz1-2 vs 12тб на raidz3 выглядит логичней.
4тб, которые есть возможность получить по выгодной цене, старые и медленные (хотя технически новые), от того больше думается про 6 по 8 вместо 12 по 4. Вообще не думал бы про 4тб, если бы мне не предлагали мешок за дёшево. В платформе 12 корзин, соответственно остаётся еще и возможность увеличения места, когда потребуется, без покупки нового сервера, если выбрать сначала 6 но более больших дисков (а исходная потребность как раз примерно на 30 тб используемого места) время перестроения не важно, задача предполагает возможность даунтаймов
Maksim
Какие даунтаймы приемлемы?
Maksim
И будут ли бэкапы если диски совсем сдохнут?
Nick
Какие даунтаймы приемлемы?
день-два - приемлемы. бекапы будут, это не единственный сервер бекапов )
Nick
4 огонь, я сам использовал … ушел на 8, так как объемы нужны большие (((
с 4 на 8 при том же количестве дисков? Как ощущения, иопсов стало больше?
Vladislav
Если деньги позволяют - мое личное мнение 6 дисков > 12, потому что запас на расширение есть. Если же железно гвоздями вбит объем и расширяться в ближайшие 5 лет не планируется, то 9+2+1 звучит как план
Vladislav
Либо хороший мониторинг, но через 2-3 года все уже забудут что делать
Nick
я что-то много читал что hot spare работает не так как сходу ожидается и лучше сразу raidz3 в таком случае
Nick
а как ожидается ?
я уже забыл что там не так, но как минимум он не очень hot и просто заменяет умирающий диск с ресильвингом, что долго и даунгрейд по иопсам, а в случае с raidz3 даунгрейда по иопсам не будет
Nick
но если у кого-то есть опыт с hot spare, когда он заюзался - поделитесь ) У меня был такой только один сетап, диски в нём не умирали, hot spare не пригодился, потом почитал про как он будет работать и в следующем апгрейде поднял уровень raidz
Y
Если есть бэкапы raidz3 излишен на 12 дисков... У меня на 12 стоит raidz2, еще не разу не было что бы одновременно больше 1го диска сбоило
George
ширина вдева - по общей логике, шире = рисковее
Y
Это когда всего один такой ведев ))
Ну если их много то один спаре натвсех
Δαρθ
А вот кстати хотел спросить, в раидз-N конфигурациях, чексум блока хранится на каждый кусочек, располагающийся на своем винте? или как-то по-другому?
Alexander
по идее каждые блоки данных размазываются тонким слоем вместе с чексуммами, так гарантируется что умерший диск с чексуммами не сломает восстановление. Еще был draid но хз допилили ли его
Combot
istaplush has been banned! Reason: CAS ban.
Egor
подскажите, нашёл инфу что для open-zfs надо оставлять минимум 1ГБ свободного пространства в конце диска (не занятого разделами)
Egor
это действительно важно?
Artem
Выглядит как бред
Sergey
подскажите, нашёл инфу что для open-zfs надо оставлять минимум 1ГБ свободного пространства в конце диска (не занятого разделами)
Там такой прикол что если оставлять место как и на lvm впрочем. при заполнее пула на 100% можно расшириться и какие-то действия совершить. Особенно если на разделе ОС стоит. Если нет просто желательно не забивать до 100% и тогда можно и фул отдать. Вообще советуют % какой-то незабитый оставлять а не 1 гб
Sergey
Чот я не подумал о таком лайфхаке. А если пул забить на 100%, то почистить уже никак?
Если у вас на нём стоит ось то вы столкнетесь с проблемами. А остальных случаях не страшно.
Δαρθ
подскажите, нашёл инфу что для open-zfs надо оставлять минимум 1ГБ свободного пространства в конце диска (не занятого разделами)
это скорее о том что диски с одинаковым маркетоидным размером могу иметь разный реальный размер
Станислав
подскажите, нашёл инфу что для open-zfs надо оставлять минимум 1ГБ свободного пространства в конце диска (не занятого разделами)
Я на днях столкнулся с ситуаций, когда не полностью занятое пространство помогло. Три года назад купили (ухватили последние) М.2 SSD Samsung PM983 1.92Tb, стоят 2 в зеркале. Переразбил namespace на меньший размер, чтобы формат секторов сделать 4к, заодно уменьшил доступное пространство. А два месяца назад на Авито мало б/у нашёл для второго сервера, заодно решили купить 1 запасной для первого. Я их также подготавливал и сразу обратил внимание на следующее - вместо 1.92Тб на накопителях 1.88Тб. Получается, если бы я не уменьшил первую пару в размере, то запасной накопитель не подошёл бы на замену.
Владимир
но конечно в больше этапов
Станислав
Пересоздайте namespace, мне такой с Алика приезжал, там namespace криво разбит
Я так сразу и поступил, но максимум в этой модели оказался 1.88Тб. Дело в том, что у этой версии так и заявлено)
Станислав
Странное число, но ладно
Что есть, то есть.
Владимир
Как именно?
добавляешь новый вдев меньшего размера, а старый потом удаляешь
George
добавляешь новый вдев меньшего размера, а старый потом удаляешь
С оговорками что ашифт должен у всех вдевов совпадать и не должно быть raidz в массиве, тогда zpool remove сработает
Владимир
С оговорками что ашифт должен у всех вдевов совпадать и не должно быть raidz в массиве, тогда zpool remove сработает
я кстати уже ловился на тему что вдев добавил новый с другим ашифт...., заразаааа
Владимир
пришлось всё пересобирать((((
Станислав
я кстати уже ловился на тему что вдев добавил новый с другим ашифт...., заразаааа
А в случае, когда хотя бы 5% отрезал заблаговременно, таких сложностей не будет))
Владимир
одно не верное движение и пипец
Владимир
А в случае, когда хотя бы 5% отрезал заблаговременно, таких сложностей не будет))
а потом окажется что надо было отрезать 6)), та бред это)
Владимир
одно дело если ты заранее что-то знаешь, а если не знаешь, то и смысла нет
Владимир
неплохо бы в zfs варнинг запилить при добавлении
ага, типа вы уверены что именно аткой ашифт, в других вдевах он не такой
Станислав
ага, типа вы уверены что именно аткой ашифт, в других вдевах он не такой
Особенно, когда ашифт не указал и он сам решает каким быть
Владимир
вот цены бы такому варнингу не было, особенно учитывая что если добавить с не тем ашифт, уже нифига же не исправить, обратного пути нет, только полная пересборка
Владимир
Особенно, когда ашифт не указал и он сам решает каким быть
в моём случае первый раз я указал, а второй раз забыл добавить аргумент и указать....
Владимир
и он какой-то автоматический выбрался...
Станислав
добавляешь новый вдев меньшего размера, а старый потом удаляешь
Есть ещё один варик. Добавить накопитель большего размера))
George
неплохо бы в zfs варнинг запилить при добавлении
отличная задача, которую наверняка примут в апстрим)