Владимир
Владимир
nikolay
Именно ашифт
можно добавить диски с ss = 4к в пул где остальные диски с ss=512 , они добавятся в виде отдельного vdev, но удалить такой vdev не получится
Art
Владимир
Владимир
Art
ну у меня там как раз системные разделы
Блин, попадос. Но что если:
Установить в сервер ещё дисков,
затем добавить их как зеркало (и с правильным ашифтом) к проблемному вдеву
Дождаться окончания ресильвера
Ну и выпилить диски плохого вдева из системы физически
Это наркомания, или я придумал дельное решение?
Vladislav
Владимир
Vladislav
Vladislav
Aba
Владимир
Александр
Станислав
Привет всем, у меня тут снова глупый (теоретический) вопрос - имеем 2 корзины по 6 дисков, имеем два фуджиковских контроллера 9211-8i (по одному на корзину, IT режим), имеем raidz2 на обычных дисках (пока 6 штук, но планирую массив увеличить до 12 думаю), собственно вопрос - для ссд я понимаю ответ на него, а для обычных дисков - есть ли смысл раскидывать один пул из 6 дисков на 2 отдельных контроллера, или один вполне себе вытянет без проблем? (контроллеры подключены в PCI-e 2 x8, как положено) (я даже не столько про линейную пропускную способность, сколько про саму нагрузку на контроллер)
Art
Привет всем, у меня тут снова глупый (теоретический) вопрос - имеем 2 корзины по 6 дисков, имеем два фуджиковских контроллера 9211-8i (по одному на корзину, IT режим), имеем raidz2 на обычных дисках (пока 6 штук, но планирую массив увеличить до 12 думаю), собственно вопрос - для ссд я понимаю ответ на него, а для обычных дисков - есть ли смысл раскидывать один пул из 6 дисков на 2 отдельных контроллера, или один вполне себе вытянет без проблем? (контроллеры подключены в PCI-e 2 x8, как положено) (я даже не столько про линейную пропускную способность, сколько про саму нагрузку на контроллер)
У нас 9200-8e (проц у них тот же самый) тянут по 18 дисков вообще без проблем, причём там вперемешку SAS и SATA
Вытянуть HDD по нагрузке это вкдь изи задача. У этих контроллеров в спеках же вообщи сотни дисков указаны по моему)
Art
Да, там через рейзеры 256 указано, я тут реально малость лоханулся в цифрах) и понял уже после того как спросил) в спеках у него указано 600мб на порт, соответственно 4800мб на 8 прямых каналов, а псие 2 х8 даёт нам 4гб в секунду, но конкретно в моем случае даже теоретически выходит 3.6гб в секунду, это при использовании хороших ссд, условно - можно не париться)
Ага, получается узким местом HBA не станет👌 А если когда-нибудь ссд станет много, то уж тогда поменяешь на более современный, под псие 3.0
Art
Привет всем, у меня тут снова глупый (теоретический) вопрос - имеем 2 корзины по 6 дисков, имеем два фуджиковских контроллера 9211-8i (по одному на корзину, IT режим), имеем raidz2 на обычных дисках (пока 6 штук, но планирую массив увеличить до 12 думаю), собственно вопрос - для ссд я понимаю ответ на него, а для обычных дисков - есть ли смысл раскидывать один пул из 6 дисков на 2 отдельных контроллера, или один вполне себе вытянет без проблем? (контроллеры подключены в PCI-e 2 x8, как положено) (я даже не столько про линейную пропускную способность, сколько про саму нагрузку на контроллер)
Ну я и бы не стал раскидывать диски для пула по разным HBA... Не вижу смысла, один вред: падает контроллер, падает часть дисков пула, от чего пул может помереть навсегда, в теории
Хотя если вот делать зеркальные массивы, то вот тогда в принципе в двух контроллерах есть некоторый смысл
Станислав
Ну я вот тоже думал, что как раз когда все 12 дисков будут уже в массиве (я думаю сделать 2 raidz2 в страйпе), и как раз там раскидать каждую группу по 6 дисков на свой контроллер
Aba
Станислав
Ну это ты загнул конечно) даже тримод можно за 20к взять
Просто у меня сейчас стоит supermicro x8 с парой x5675 и 96 оперативки (288макс)) я вот думаю, если менять, то уже на что-то современное, и цены там ппц просто) я оооочень дёшево утараканил эту материнскую плату, новую) а остальное уже бу кроме дисков и блока питания (насчёт контроллеров не уверен конечно, но не думаю что они прям новые)
Станислав
Мне этого то сейчас за глаза, но руки ведь чешутся)
Ivan
это первый снапшот забираешь ?
Алексей
ну может быть у тебя под этим снапшотом еще херова гора других снапшотов а параметр -R их льёт тоже
Алексей
вот именно
Алексей
что раз он последний значит под ним еще другие снапшоты
Алексей
почитай про параметр -R
Алексей
а он и не должен промежуточные забирать
Алексей
он забирает все что ниже
Evgenii
а как ты понял что снаршот на 10 гб? это не тривиальная задача, used - совсем не это отображает, а освободится если снапшот удалить, то есть сколько уникальных данных в снимке. чтобы узнать разницу между соседними снимками, нужно смотреть свойство writen, а если снимки не соседние, то х знает как узнать
Алексей
Алексей
мне кажется что да. параметр -R именно это и делает
Evgenii
если это первая отправка, то он отправит все данные, связанные со снимком, конечно
Evgenii
ну тогда разницу отправит
Evgenii
чтобы примерно понять сколько это, прочти свойство writen у снимка, в нем будет количество байт записанное с момента предыдущего состояния до текущего снимка
Evgenii
но это в случае если отправляешь соседние снимки, если между ними есть еще, то хз как определить точно. если отправляешь все последовательно через большую I, то надо все writen сежду начальным и конечным снимком сложить
Evgenii
used? это уникальные данные
Maksim
https://github.com/mafm/zfs-snapshot-disk-usage-matrix вот тут какой-то скрипт который делает dry run и показывает сколько всего между снепшотами
Maksim
If you use "zfs destroy -nv filesystem@snap1%snap2" ZFS will actually tell you how much space the sequence of snapshots between snap1 and snap2 is using.
Evgenii
если в текущем представлении есть почти все блоки из твоих снимков то used будет крошечным во всех снимках, но это не значит что при передачи они ничего не будут весить, каждый снимок мог добавлять по 100 новых гб, это надо смотреть через writen
Evgenii
короче used зависит от других снимков и от текущего состояния и НЕ отражает разницу между снимками
Evgenii
zfs get all
Evgenii
либо конкретно:
zfs get written
Evgenii
можно у всех снимков посмотреть:
zfs list -t snapshot -o name,written
Evgenii
used, это размер уникальных для снимка блоков, этих блоков не должно быть в текущем состоянии или других снимках
Evgenii
столько освободится если снимок удалить
Evgenii
эээ, это бессмысленно
Evgenii
у тебя нет текущего состояния
Evgenii
в снимке полно блоков, которые появились в его время и дожили до текущего состояния, а ты предлагаешь их не передавать
Δαρθ
[боян] virtio-blk в кему проканает чтоб дискарды шли до zvol'а, или обязательно virtio-scsi-blk ?
Юрий
Добавился нормас. Ещё раз спасибо. Resilvering/scrubbing в данном случае неприменим
Arseniy
При установке ВМ на трунасе (debian based) на миррор из двух ssd samsung 870 evo и 870 qvo (sata), словил деплой всех приложений (они также на этом мирроре). При этом, установка ВМ не прекращалась. Образ ВМ лежал на этом пуле, и устанавливалась она на этот же пул. Есть мысли, почему так произошло? ashift стандартный стоит, 12. recordsize 128кб. Но я не думаю, что дело в этом ..
Да, диски по разным технологиям немножко сделаны, и после записи некоторого объема файлов (когда кончился супербыстрый кэш), скорость записи у них отличается в два раза..
Fedor
Что означает деплой всех приложений?
Aba
Владимир
Volodymyr
После непредусмотренного ребута 2а из 3 пулов отвалились Лог. Диски все в живом состоянии. Я правильно понимаю типичная проблема с Multipathing ?
Arseniy
Владимир
Владимир
посмотрите что там написано
Владимир
Владимир
например вот я зарезал ОЗУ на под
Владимир
и он киляется и в его дескрайб это видно, только это вопрос не чата зфс, а чата кубер
Arseniy
Я новичок, поэтому хз где смотреть именно этот лог... У меня трунас, в штатных средствах нет. Видимо, какой то файл в системной директории?