Олег
Vladislav
#вопрос
Если кто знает XML или JSON структуру, чтоб описать в одном файле объекты, то ответьте с ссылкой:
Объекты:
- диски
- slice или GPT/GEOM разметка
- массивы - ZFS zpool, gmirror, mdadm или LVM (PV,VG,LV)
- FS и точки монтирования, geomgate, NFS, HAST, iSCSI
central
#вопрос
Если кто знает XML или JSON структуру, чтоб описать в одном файле объекты, то ответьте с ссылкой:
Объекты:
- диски
- slice или GPT/GEOM разметка
- массивы - ZFS zpool, gmirror, mdadm или LVM (PV,VG,LV)
- FS и точки монтирования, geomgate, NFS, HAST, iSCSI
Ну так напишите какая вам нужна, тем более что JSON их даже не поддерживает
Vladislav
Сергей
#вопрос
Если кто знает XML или JSON структуру, чтоб описать в одном файле объекты, то ответьте с ссылкой:
Объекты:
- диски
- slice или GPT/GEOM разметка
- массивы - ZFS zpool, gmirror, mdadm или LVM (PV,VG,LV)
- FS и точки монтирования, geomgate, NFS, HAST, iSCSI
вы ищите готовую схему для вышеперечисленного? сомневаюсь в наличии готового. Но есть примеры схем для ФС:
https://json-schema.org/learn/file-system.html
Vladislav
Evgeniy
подскажите по этому пункту в доке
We highly recommend to use a hardware RAID controller (with BBU) for such setups. This increases performance, provides redundancy, and make disk replacements easier (hot-pluggable).
выглядит как используйте ниже уровням аппаратный контроллер?
я его использую но только ради того чтобы расширить количество портов, т.е. диски не в массиве на самом контроллере
Alexandr
доку в студию
Alexandr
а то вырванный контекст непотяно откуда, и непонятно для чего вообще такой совет дается
Sergey
Fedor
С зфс контроллеры надо переводить в режим HBA, в котором они как раз расширяют количество портов, отдавая все заботы о работе с данными и их сохранностью самой зфс.
Evgeniy
Alexandr
как уже писали выше, ZFS тут не причем
Evgeniy
Evgeniy
чем лучше мониторить zfs?
Vladislav
чем угодно
Vladislav
cacti,nagios, zabbix или другим модным мониторингом
Fedor
Я прометеем и самописным экспортером на баше мониторил 😁
Eugen
Привет. Как можно удалить zvol который раздается фряшным таргетом CTL, не выключая сам таргет?
К слову я сейчас использую: ctladm remove -b block -l $n, но это не очень красивый метод, и иногда он подвисает.
Феликс
Все привет
Alexandr
Unbuffered ecc поидет под zfs или не очень
Alexandr
В продакшн в смысле
Alexandr
Олег
Например какие ?
смотрите спецификацию материнки, там ограничения ОЗУ указываются для Unbuffered отдельно, именно для предельного обьема
Δαρθ
если изменится номер раздела (но не его положение и размер) пул найдется?
NAME STATE READ WRITE CKSUM
store_pool ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
ata-HGST_HUS726T6TALE6L4_V8HAHW8R-part6 ONLINE 0 0 0
ata-HGST_HUS726T6TALE6L4_V8HBMP7R-part6 ONLINE 0 0 0
ata-HGST_HUS726T6TALE6L4_V9H3HYUL-part6 ONLINE 0 0 0
ata-HGST_HUS726T6TALE6L4_V8J22VLR-part6 ONLINE 0 0 0
DOK ꧁꧂
Что можно настроить в zfs доя ssd диска? Логи перенести например и тд
Ivan
DOK ꧁꧂
ashift )
Ну не зачем так явно свою тупость демонстрировать)
Combot
Lexie Hunter has been banned! Reason: CAS ban.
Murmuring
Здравствуйте. Если у существущего массива поменять алгоритм сжатия, то старые данные так и остануться на старом алгоритме?
George
George
для смены нужно перезаписать данные с пересозданием файла
Δαρθ
может ли zfs подхватить свой раздел который поменял номер или диск? без ресилвера в смысле
Qwerty
Pavel
Pavel
Оо)
Δαρθ
Да.
это само случится при импорте или ручками чтото делать?
идея в том что пул собран на разделах а не на дисках. если их номер изменится (но не положение на диске и содержимое ессно) то 'оно само'?
George
Qwerty
Δαρθ
Qwerty
Там модель и серийный номер
Δαρθ
Δαρθ
/dev/disk/by-id
Qwerty
central
zfs бай дизайн, не записывает данные сразу
nikolay
Посмотреть на latency
nikolay
-l в iostat
nikolay
Ну так вы сами оценивайте - если у вас nl-sas/sata диски, то вроде как норм, если sas/ssd/nvme- то наверно не норм. Плюс пул в мирроре или в raidz
nikolay
Суммарный bandwidth в 9 gb/s на двух хардах?
nikolay
Или это mb/s, я не помню как вывод интерпретируется)
nikolay
Наверно все же mb/s
nikolay
Тогда для такого количества операций и для такого маленького bandwidth как то высоковаты latency имхо
nikolay
я не знаю какое у вас оборудование), вижу что половина чтения идет из cache девайса, что уже неплохо. в slog будет писаться только случайная запись насколько я помню, могу предположить что у вас нагрузка сугубо последовательная
nikolay
и в принципе показатели латенси это всегда it depends (размер блока, характер нагрузки, использование всяких кэшей и буферов)
George
в slog пишется только синхронная запись, и то эти данные всё равно потом в txg запишутся на обычные vdevs
nikolay
повторюсь что при 85 iops и 9 mb/s суммарное значение latency в 30 ms read и 23 write - это многовато. с другой стороны непосредственно по дискам 15 ms read и 1 ms write может и норм. оперируете вы большими блоками по 1 mb/s, поэтому скорее всего что нагрузка последовательная
nikolay
nikolay
при вашем уровне нагрузки который я вижу на слайде использование nvme диска под slog или special vdev вряд ли ускорят производительность вашего пула
nikolay
не важно. 85 iops и 9 mb/s - один сата диск без всяких кэшей спокойно обработает
Nikolay
https://docs.oracle.com/cd/E26505_01/html/E37384/zfsover-1.html#scrolltoc
Владимир
обычный это какой)
Владимир
есть ZFS проприаритарный, а есть опензфс))
Владимир
какой из них обычный?)
Nikolay
как админ гайд разницы никакой. где-то конфиги в других местах прописываются. а так в целом одно и тоже
Δαρθ
а разве пакетный манагер как раз юинарники и не скачивает?
Δαρθ
ну хз, не вижу ничего страшного чтоб собрать ядро и модули zfsные из сорцов
Δαρθ
а вот скачать бинарь как модуль ядра не очень получится да (если только не пакетным манагером)
DOK ꧁꧂
Ктото пробовал папку home перенести на работающей машине? Как это сделать вообще
Джифорсович
элементарно
Джифорсович
выходишь из сессий юзера, который юзает хомяк, дальше делаешь с данными что угодно
Qwerty
Александр
Хм. Куда делось место?
# zpool list store-4-18
store-4-18 65.5T 62.9T 2.56T - - 44% 96% 1.00x ONLINE -
# zfs list store-4-18
store-4-18 45.7T 367G 140K none
George