Владимир
Вы меня пугаете
Владимир
видимо да
не понятно зачем менять диск не на аналогичный, ну да ладно
central
Да там же все такое. Хочешь новые диски - плати отдельно
там получается когда берешь типовую конфигурацию, они ставят тебе полностью новое оборудование?
Владимир
не новую только когда с аукциона
Ivan
когда для zfs отдаешь весь диск, он сам 8 гигов отрезает вроде
Ivan
или метров
Ivan
диск не всегда можно такой же купить. проблема актуальная.
central
диск не всегда можно такой же купить. проблема актуальная.
так а что сломается если диск не будет таким же?
Ivan
так а что сломается если диск не будет таким же?
если создал массив с дисками побольше, а меняешь диском поменьше, то он в массив не встанет
Ivan
у меня есть диски wd и тошиба, отличаются на мегабайт
Andrey
а кто знает куда делась /proc/spl/kstat/zfs/<pool>/io (обновился до 2.1 с древней 0.7.5) нашел замену iostats , но там совсем не то что было...
Kolyanius
там получается когда берешь типовую конфигурацию, они ставят тебе полностью новое оборудование?
Неделю назад брал сервер на epic не с аукциона, в ДЦ в Хельсинки, с отдельной платой за setup диски поставили бу, т.е. на них большой uptime, но уровень остатка 100 процентов
central
а у них какие нибудь акции бывают на дедики новые или все всегда фиксировано по цене?
Владимир
Бывают акции без платного сетапп
На старье от которого надо избавиться)
bishop
Можна добавить после создание пула котрый уже имеет файлы,кеш и лог диски?
bishop
добавить что?
диск кэша и логов
central
а что то мешает?
bishop
а что то мешает?
буду собирать пул на рейд5,в будущем добавлю кэш....вопрос в том что не розрушить пул и не потеряю ли я данные?
central
ну ссылку на доку прямо сходу не дам, но не помню, чтобы хоть когда нибудь была проблема с добавлением удалением и бог еще знает какими операциями над l2arc
George
буду собирать пул на рейд5,в будущем добавлю кэш....вопрос в том что не розрушить пул и не потеряю ли я данные?
Всегда можно проверить создав тестовый пул на файликах вместо дисков, если что)
Eugen
Такой вопрос, если система настраивалась на компе с 16 рамы, а потом ее перенесли на комп со 128, zfs сам раздует arc до нужного значения для 128 гб или придется переконфигурировать? Имеется в виду ZoL
Eugen
А лучше сколько ставить, 80% или так по дефолту и оставлять?
Eugen
Другими процессами особо не будет забит сервер
Ivan
При желании дефолты можно поменять, будет кушать сколько укажешь
George
Другими процессами особо не будет забит сервер
В таком случае стоит поменять конечно на побольше
Eugen
Может есть примеры максимально удачного конфигурирования zfs и arc в частности, если суть работы отдавать zvol или .img на бездисковые клиенты на винде. Буду очень признателен
nikolay
наткнулся на довольно старую но интересную статью https://dhelios.blogspot.com/2016/11/ssd-hgst-husmh8020bss204_11.html
nikolay
часто сталкивался с таким вопросом от знакомых
Dima
там в ссылке html , пропущен l
Vladislav
спс
Vladislav
Если у кого-то диск размечен свежим ZFS под Линуксом, покажите размер резервного свободного раздела в конце диска
Vladislav
и какой там размер?
Ivan
8МБ
Ivan
/dev/sda9 7814019072 7814035455 16384 8M Solaris reserved 1
Vladislav
принято, спс
Олег
Прикольно сделали бота)
Fedor
Ага 😁
max
всем привет. появилась не совсем для меня понятная ошибка с zfs
max
zpool list NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT pool_sas2TB 1.81T 794G 1.04T - - 12% 42% 1.00x DEGRADED -
max
pool status -v pool: pool_sas2TB state: DEGRADED status: One or more devices has experienced an error resulting in data corruption. Applications may be affected. action: Restore the file in question if possible. Otherwise restore the entire pool from backup. see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-8A config: NAME STATE READ WRITE CKSUM pool_sas2TB DEGRADED 0 0 0 sdc DEGRADED 0 0 0 too many errors errors: Permanent errors have been detected in the following files: pool_sas2TB/hdd1:<0x83e> root@Odin:/home/max# zpool iostat -v capacity operations bandwidth pool alloc free read write read write ----------- ----- ----- ----- ----- ----- ----- pool_sas2TB 794G 1.04T 1 1 39.1K 14.5K sdc 794G 1.04T 1 1 39.1K 14.5K ----------- ----- ----- ----- ----- ----- -----
max
кто может пояснить что не так ?
Ivan
пул из одного диска - на нем ошибка
max
пул из одного диска - на нем ошибка
это понятно. а из-за чего такое могло произойти ?
Ivan
как бы лучше зеркало делать, чтоб ошики чинились
max
то что с винтом все хорошо - это точно
max
контроллер LSI
nikolay
sdc DEGRADED 0 0 0 too many errors - откуда many errors если все счетчики по нулям?
nikolay
запустите zpool clean, скорее всего это действительно глюк
nikolay
хотя вот это errors: Permanent errors have been detected in the following files: pool_sas2TB/hdd1:<0x83e>
nikolay
настораживает. в messages* есть какие-нить сообщения по диску?
nikolay
ушла ошибка по файлу?
max
есть предположение что линуксу не нравиться 2 контроллера, второй HP P410 - к нему подключен пул с 8 винтами, вот он вообще не заводиться
max
до этого все работало на FreeBSD но по ряду причин пришлось поставить линю
max
а что не так было?
Сервер базы данных - oracle KVM- нужна виндовая машина :(
Mikhail
Сервер базы данных - oracle KVM- нужна виндовая машина :(
печалька. Но зачем Ораклу ZFS? Там же ASM.
max
Хотя я очень не люблю Линукс на серверах, но выхода нет, а солярис далеко не решения
Mikhail
шуть про postgres не буду :)
max
печалька. Но зачем Ораклу ZFS? Там же ASM.
Дело не в оракле, просто у меня на Сасах zfs именно по причинам возможности переноса пулов
max
Между системами
Олег
ребеланс расширенного пул в ZFS не придумали? есть идея расширить пул с 26 до 50 дисков, не хотелось бы rsync с mv
Δαρθ
Подскажите. https://github.com/openzfs/zfs/releases/tag/zfs-2.1.1 вот тут поддержка вплоть до ядер 5.14 хотя ниже в чендж логе упоминается 5.15. Как на самом деле? После апгрейда на 5.15 не отвалится?