Vladislav
#вопрос Если кто знает XML или JSON структуру, чтоб описать в одном файле объекты, то ответьте с ссылкой: Объекты: - диски - slice или GPT/GEOM разметка - массивы - ZFS zpool, gmirror, mdadm или LVM (PV,VG,LV) - FS и точки монтирования, geomgate, NFS, HAST, iSCSI
Vladislav
Ну так напишите какая вам нужна, тем более что JSON их даже не поддерживает
Прежде чем писать свое, нужно убедиться, что нет аналогов
Evgeniy
подскажите по этому пункту в доке We highly recommend to use a hardware RAID controller (with BBU) for such setups. This increases performance, provides redundancy, and make disk replacements easier (hot-pluggable). выглядит как используйте ниже уровням аппаратный контроллер? я его использую но только ради того чтобы расширить количество портов, т.е. диски не в массиве на самом контроллере
Alexandr
доку в студию
Alexandr
а то вырванный контекст непотяно откуда, и непонятно для чего вообще такой совет дается
Fedor
С зфс контроллеры надо переводить в режим HBA, в котором они как раз расширяют количество портов, отдавая все заботы о работе с данными и их сохранностью самой зфс.
Evgeniy
доку в студию
чет ссылку потерял
Alexandr
чет ссылку потерял
https://pve.proxmox.com/wiki/Logical_Volume_Manager_(LVM)
Alexandr
как уже писали выше, ZFS тут не причем
Evgeniy
как уже писали выше, ZFS тут не причем
понял, значит зря панику поднял )
Evgeniy
чем лучше мониторить zfs?
Vladislav
чем угодно
Vladislav
cacti,nagios, zabbix или другим модным мониторингом
Fedor
Я прометеем и самописным экспортером на баше мониторил 😁
Eugen
Привет. Как можно удалить zvol который раздается фряшным таргетом CTL, не выключая сам таргет? К слову я сейчас использую: ctladm remove -b block -l $n, но это не очень красивый метод, и иногда он подвисает.
Феликс
Все привет
Alexandr
Unbuffered ecc поидет под zfs или не очень
Alexandr
В продакшн в смысле
Олег
Unbuffered ecc поидет под zfs или не очень
Они сильно дороже если говорим о БУ, т.е. будущее расширение сильно дорого, а так зайдет. Но unbuffer имеет сильные ограничения по пределам
Олег
Например какие ?
смотрите спецификацию материнки, там ограничения ОЗУ указываются для Unbuffered отдельно, именно для предельного обьема
Δαρθ
если изменится номер раздела (но не его положение и размер) пул найдется? NAME STATE READ WRITE CKSUM store_pool ONLINE 0 0 0 raidz2-0 ONLINE 0 0 0 ata-HGST_HUS726T6TALE6L4_V8HAHW8R-part6 ONLINE 0 0 0 ata-HGST_HUS726T6TALE6L4_V8HBMP7R-part6 ONLINE 0 0 0 ata-HGST_HUS726T6TALE6L4_V9H3HYUL-part6 ONLINE 0 0 0 ata-HGST_HUS726T6TALE6L4_V8J22VLR-part6 ONLINE 0 0 0
DOK ꧁꧂
Что можно настроить в zfs доя ssd диска? Логи перенести например и тд
DOK ꧁꧂
ashift )
Ну не зачем так явно свою тупость демонстрировать)
Eugen
Что можно настроить в zfs доя ssd диска? Логи перенести например и тд
Та слог наверное только перенести в другое место, или вовсе отказаться от него. Синк может еще отрубить
Combot
Lexie Hunter has been banned! Reason: CAS ban.
Murmuring
Здравствуйте. Если у существущего массива поменять алгоритм сжатия, то старые данные так и остануться на старом алгоритме?
George
для смены нужно перезаписать данные с пересозданием файла
Δαρθ
может ли zfs подхватить свой раздел который поменял номер или диск? без ресилвера в смысле
Pavel
Оо)
Δαρθ
Да.
это само случится при импорте или ручками чтото делать? идея в том что пул собран на разделах а не на дисках. если их номер изменится (но не положение на диске и содержимое ессно) то 'оно само'?
Δαρθ
если без cache файла обычным импортом - само
а как узнать какой у меня импорт? :) импорт делает initramfs вроде
Qwerty
вот так собрано
Нормально будет
Δαρθ
Нормально будет
ок. по 1 диску менять буду на всякий )
Qwerty
Там модель и серийный номер
Δαρθ
/dev/disk/by-id
central
zfs бай дизайн, не записывает данные сразу
nikolay
Посмотреть на latency
nikolay
-l в iostat
nikolay
Ну так вы сами оценивайте - если у вас nl-sas/sata диски, то вроде как норм, если sas/ssd/nvme- то наверно не норм. Плюс пул в мирроре или в raidz
nikolay
Суммарный bandwidth в 9 gb/s на двух хардах?
nikolay
Или это mb/s, я не помню как вывод интерпретируется)
nikolay
Наверно все же mb/s
nikolay
Тогда для такого количества операций и для такого маленького bandwidth как то высоковаты latency имхо
nikolay
я не знаю какое у вас оборудование), вижу что половина чтения идет из cache девайса, что уже неплохо. в slog будет писаться только случайная запись насколько я помню, могу предположить что у вас нагрузка сугубо последовательная
nikolay
и в принципе показатели латенси это всегда it depends (размер блока, характер нагрузки, использование всяких кэшей и буферов)
George
в slog пишется только синхронная запись, и то эти данные всё равно потом в txg запишутся на обычные vdevs
nikolay
повторюсь что при 85 iops и 9 mb/s суммарное значение latency в 30 ms read и 23 write - это многовато. с другой стороны непосредственно по дискам 15 ms read и 1 ms write может и норм. оперируете вы большими блоками по 1 mb/s, поэтому скорее всего что нагрузка последовательная
nikolay
при вашем уровне нагрузки который я вижу на слайде использование nvme диска под slog или special vdev вряд ли ускорят производительность вашего пула
nikolay
не важно. 85 iops и 9 mb/s - один сата диск без всяких кэшей спокойно обработает
Nikolay
https://docs.oracle.com/cd/E26505_01/html/E37384/zfsover-1.html#scrolltoc
Владимир
обычный это какой)
Владимир
есть ZFS проприаритарный, а есть опензфс))
Владимир
какой из них обычный?)
Nikolay
как админ гайд разницы никакой. где-то конфиги в других местах прописываются. а так в целом одно и тоже
Δαρθ
а разве пакетный манагер как раз юинарники и не скачивает?
Δαρθ
ну хз, не вижу ничего страшного чтоб собрать ядро и модули zfsные из сорцов
Δαρθ
а вот скачать бинарь как модуль ядра не очень получится да (если только не пакетным манагером)
DOK ꧁꧂
Ктото пробовал папку home перенести на работающей машине? Как это сделать вообще
Джифорсович
элементарно
Джифорсович
выходишь из сессий юзера, который юзает хомяк, дальше делаешь с данными что угодно
Qwerty
Ктото пробовал папку home перенести на работающей машине? Как это сделать вообще
mv xxx yyy При условии что в системе незалогинены пользователи
Александр
Хм. Куда делось место? # zpool list store-4-18 store-4-18 65.5T 62.9T 2.56T - - 44% 96% 1.00x ONLINE - # zfs list store-4-18 store-4-18 45.7T 367G 140K none