Vladislav
Vladislav
Нет там старых
Окей, тогда очень вероятно, что я ошибаюсь, что там есть новые диски уже
Alexandr
А
думаю тогда на выходных переделать в jbod
Vladislav
Alexandr
т.к. есть еще одна проблема
Alexandr
Alexandr
видимо тоже свзязано
Vladislav
Потому что @LordNicky тогда прав.
ZFS немного сошёл с ума из-за переименования дисков, но HBA не создаст Вам Raid0 на свеже вставленных дисках
Vladislav
Это необходимо сделать через cli из ОС (megacli) или через консоль рейд контроллера
Nikita
сейчас попробую
там уже в /dev найдете свои новые sd* и сделаете "zfs replace zpool OLDNAME NEWNAME", где OLDNAME - id заменяемого диска, а NEWNAME - sd* имя нового. я сам работаю с без guid, но обычно рекомендуют создавать по gtp id пулы, как у вас zpool-12 создан.
Nikita
думаю тогда на выходных переделать в jbod
обратите внимание, что вам при этом всю систему заново придется настраивать, размеченные в raid0 диски вряд ли будут также читаться в режиме jbod. но, если этот режим не на весь контроллер, а на каждый диск в отдельности выставляется, тогда можно по очереди перекинуть и решить вопрос zfs replace-ом.
Alexandr
Alexandr
В общем спасибо за помощь и советы по результатам отпишу
al
Доброго времени! Хочу собрать NAS на базе делл R730 (рейд-контролер умеет в хба) с возможностью установки 12-ти 3.5" дисков (пока только 4 в наличии). Загрузка ОС идет с отдельных дисков. Интересует несколько вопросов:
1) Можно ли с ZFS провернуть такой финт ушами: собрать пул с а-ля раид6 - RAID-Z2 из 4-х существующих дисков и потом периодически добавлять по паре дисков в этот пул с сохранением начального Fault Tolerance и пропорциональным увеличением емкости?
2) Есть ли описанный бест-практикс на создание стораджей на базе ZFS ? Я имею ввиду использование ОЗУ, кешей ARC и L2ARC, лога SLOG. Запроектировать сторадж так, чтобы потом не возвращаться к железу по поводу и без повода.
3) Будет ли возможность, в случае сбоя сервера перетащить диски на другой сервер и там запуститься?
Заранее благодарен за ответы
Maksim
1) по паре дисков нельзя. максимум вы можете добавить ещё один vdev
Nikita
Доброго времени! Хочу собрать NAS на базе делл R730 (рейд-контролер умеет в хба) с возможностью установки 12-ти 3.5" дисков (пока только 4 в наличии). Загрузка ОС идет с отдельных дисков. Интересует несколько вопросов:
1) Можно ли с ZFS провернуть такой финт ушами: собрать пул с а-ля раид6 - RAID-Z2 из 4-х существующих дисков и потом периодически добавлять по паре дисков в этот пул с сохранением начального Fault Tolerance и пропорциональным увеличением емкости?
2) Есть ли описанный бест-практикс на создание стораджей на базе ZFS ? Я имею ввиду использование ОЗУ, кешей ARC и L2ARC, лога SLOG. Запроектировать сторадж так, чтобы потом не возвращаться к железу по поводу и без повода.
3) Будет ли возможность, в случае сбоя сервера перетащить диски на другой сервер и там запуститься?
Заранее благодарен за ответы
1. увы, но нет.
2. https://openzfs.github.io/openzfs-docs/Performance%20and%20Tuning/index.html
3. да, если диски будут напрямую подключены, в том смысле, что контроллер их как то особо помечать не будет. вы можете это протестировать сейчас, создав, например раздел ext4 и попробовать его прочитать на другой машине.
Maksim
2) вопрос в том что вы хотите вообще от стораджа. может, вам ARC хватит, а остальное (l2arc, slog, special) нафиг не нужно
al
Александр
Vladislav
Vladislav
George
уже разобрались с вылетевшим диском? там надо было просто offline и replace сделать. Новые диски в существующий raidz технически добавить нельзя, там либо нюансы по хардварному рейду были либо просто resilver + scrub сделать.
Правда я всё прочитать не осилил и вижу что всё равно в jbod пересобирать, это правильно
Alexandr
Sergio
Здравствуйте. Наверное многие спрашивают, наверное уже оскомину набило, но есть такой вопрос:
Есть zfs raid1, можно ли его разбить на 2 рабочих диска и собрать из них raidz, либо придётся через бекап переделывать? инфу искал долго, ничего конкретного не нашёл.
Vladislav
Sergio
Да, я понимаю, что разное количество дисков. Нам как раз нужно добавить диск.
Sergio
Спасибо, почитаю по ссылке
Maksim
al
Maksim
практически можно
Maksim
только учитывайте что данные ещё сами не перераспределятся. не помню как это решается
Shaker
Не знаю, по мне zfs в разы удобнее и понятнее. А на практике, еще и быстрее с минимальными усилиями.
Shaker
Масштабирование делать на проде с текущим массивом - "такое". Всегда нужен временный массив на время работ. И там уж send, recv .
Shaker
Есть конечно нюансы с raw data и шифрованием, но это все максимально просто.
central
central
Vladislav
central
Shaker
Vladislav
А потом Вы скажите какие тесты покажут обратное
Maksim
что угодно из арка не быстрее на чтении будет?
Shaker
Но я не про все варианты на свете. А про то, что собрать с разными кэшами, снапшотами и резервированием на zfs проще.
Shaker
Т е как решение комплекса конкретных задач - это с минимальным порогом вхождения.
Vladislav
Vladislav
Vladislav
Vladislav
Адекватных других тестов где zfs был бы быстрее у меня нет
Shaker
))
Vladislav
Особенно "с минимальным тюнингом"
Roman
Vladislav
Roman
И ещё вопрос: а какой настройкой регулировать что считается sequential read и это не надо тянуть в кеши?
Shaker
Есть сценарии где это норма. Архив видеонаблюдения, например.
Ну, вовремя масштабировать надо. У нас утановок zfs скоро будет под сотню. Самая большая на 6PB. Часть клиентов совсем не мониторит, и конечно заканчивается место, и конечно внезапно. Но в целом, функционала всегда достаточно, и по скорости есть простые решения.
Видеонаблюдения тоже есть несколько проектов.
Где постепенно в корзины пихают диски на лету, все устраивает.
Vladislav
Vladislav
Я тестил 2 недели и не нашел такого
Shaker
Но я не говорю, что оно во всем быстрее. Но настроить кэши чтения-записи, и решить часть его-же проблем, максимально просто.
Roman
central
Shaker
Shaker
Но ради эксперимента, мы мигрировали часть на цеф ( 30 нод по 12 дисков ), и там уж производительность на поток стала еще хуже. Сейчас уже радостн овсе вернули на zfs.
Roman
central
Пока вы на одного блока не перезаписали она около нуля
Shaker
Клиенты собирают себе массивы на бродкомах за 2000 долл , и оно работает медленнее zfs. на том-же raid6 <-> raidz2, и понятно , что там нет много функционала. Конечно, бывали случаи, кода дисковая корзина сжигала всю ram включая nvdimm кэш модули, но даже такое восстанавливалось снапшотом из бэкапа.
С похожим функционалом у нас есть несколько 3par 8400, но это покупалось за совсем другие деньги.
Shaker
Так что это конечно не волшебная пилюля, куча проблем. Но все познается в сравнении. И да, конечно zfs сравнивать с mdadm, это теплое с мягким.
al
central
central
это не относиться ко всему zfs
riv