George
забыл уже))
Sergey
я ж выше объяснял, что да, можно во всем пройтись и найти, но там в исходниках не создаются эти kstat для снапшотов и написано что вобщем то ничего не мешает их создать, соответственно со снапшотмаи этих файлов может стать тысячи и хз насколько хороши их так активно дергать
Sergey
в таких количествах
Sergey
поэтому хотел зайти с другой стороны, если б это было доступно в zfs get all или чем-то подобном)
Sergey
а так да, если что буду каждый считывать и делать список, сопоставлять и забирать что надо
Sergey
ааа, https://github.com/zfsonlinux/zfs/commit/a448a2557ec4938ed6944c7766fe0b8e6e5f6456#diff-0bfd29fd3d339a7728ad9ca731392de0
ага, заметил в 8ке новые файлы и решил разобраться что это, а там такой кладезь)
Sergey
люди с zvol вообще счастливы будут, видно будет какая виртуалка\контейнер грузят
Sergey
ааа, https://github.com/zfsonlinux/zfs/commit/a448a2557ec4938ed6944c7766fe0b8e6e5f6456#diff-0bfd29fd3d339a7728ad9ca731392de0
ну кстати из этой ссылки ZFS_PROP_OBJSETID, /* not exposed to the user */ наверное отвечает на мой вопрос :D
Sergey
но самое главное этот id константа как я понимаю
George
objsetid A unique identifier for this dataset within the pool
George
да, оно постоянно
George
Since we are not sure how useful they would be * though nor how much their memory overhead would matter in * a filesystem with many snapshots, we skip them for now.
George
вопрос перформанса со снапшотами открыт, ага
Sergey
ну вот, а запрашивать и ходить по ним по всем еще более непонятно
George
смешно, пару лет назад я активно ресерчил этот вопрос, а про патч забыл уже))
Sergey
кстати там в коммите есть изменения в man zfs где objsetid выводится в опшнах
Sergey
но блин, походу функционал в 0.8 влили, а вот zfs тулзу не поправили
Sergey
а, нет
Sergey
это блин я в глаза долблюсь)
Сергей
так, а тулза-то zfstop уже готова?
Sergey
@gmelikov блин, спасибо, ща увидел что оказывается в zfs есть -o objsetid
Sergey
вот, полезно иногда к общим знаниям воззвать, хотя я вроде и ман просматривал)
Sergey
так, а тулза-то zfstop уже готова?
а такая где-то девелопится?)
George
вот, полезно иногда к общим знаниям воззвать, хотя я вроде и ман просматривал)
я про этот id забыл, как и про патч, и сразу тебя не понял)
Сергей
а такая где-то девелопится?)
там в ишью кто-то такую тулзу и хотел получитьь
Sergey
ну теперь то думаю не сложно написать
Сергей
George
скорее zfs iostat пора делать)
Sergey
по txg ифа есть, d файле io все по лейтенси и иопсам по пулу есть, и теперь и по датасетам иопсы есть)
George
по аналогии с zpool iostat
Сергей
ну теперь то думаю не сложно написать
было бы отлично научить проксмокс видеть эти данные
Sergey
было бы отлично научить проксмокс видеть эти данные
ну вот я хочу это вытащить в тот же заббикс
Sergey
было бы отлично научить проксмокс видеть эти данные
кстати может им сообщить, может они и не знают про эту фичу)
Sergey
уже делаете PR в zfs?)))
я вот все путаюсь в этих аббревиатурах :D
Sergey
пулл реквет? так в зфс то сделали все что надо для этого)
Сергей
пулл реквет? так в зфс то сделали все что надо для этого)
да. но сейчас zfs iostat не реализован. Я в шутку и предлагаю вам этот механизм вывода статистики реализовать
Sergey
нуууу... т.к. я сварщик не настоящий если только в меня потом не будут кидаться камнями за то, что при его вызове будет panic/segfault итд :D
Sergey
ну и все галки типа "соответствует принципам кодинга в зфс" будут сняты :D
Сергей
нуууу... т.к. я сварщик не настоящий если только в меня потом не будут кидаться камнями за то, что при его вызове будет panic/segfault итд :D
ну PR могут и не принять, а идею подхватят). Ведь на самом деле полезно увидеть какой из датасетов нагружен. Можно кстати попробовать и для проксмокса PR/issue сделать на эту тему.
George
спросил людей, которые делали этот патч об инструментах, думаю они наверняка этот вопрос уже обдумывали https://github.com/zfsonlinux/zfs/pull/7705#issuecomment-582901326
Fedor
я тут думал косметический патч в бинутилс предложить. почитал, как это у них делается.. пока что передумал :D
Sergey
вообще я протупил, вместо того что б шариться по исходникам надо было глянуть хистори и увидеть этот начальный коммит
Sergey
я ж говорю сварщик не настоящий) а тупо поиском pr не всегда находится, да
Sergey
Было б круто, но я рад что оно как минимум в proc доступно)
Sergey
@sgolod тулзу вроде хотел)
George
Sergey
Еще большой прорыв был когда в 0.7.х в iostat завезли лейтенси и io size histogram а так же всяческие статистики по очередям и задержкам вплоть до конкретного девайса
Sergey
+1, очень удобно стало
Ага, я кстати issue по zpool list -v с -o открыл
George
Ага, я кстати issue по zpool list -v с -o открыл
видел, ты кстати прав был, я внимательнее глянул и у дисков поля то те же выводятся, просто и их фильтровать надо
Sergey
Ну это будет тупо проще чем 2 листа)
Gustavo Imputsa
всем привет, после ребута не импортируется пулл root@freenas[~]# zpool import -FX -f pool: pool1_pve id: 8799729420786166239 state: FAULTED status: One or more devices are missing from the system. action: The pool cannot be imported. Attach the missing devices and try again. The pool may be active on another system, but can be imported using the '-f' flag. see: http://illumos.org/msg/ZFS-8000-3C config: pool1_pve FAULTED corrupted data raidz2-0 DEGRADED 8893117777881115282 UNAVAIL cannot open 2596649909032266628 UNAVAIL cannot open gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli ONLINE gptid/b0200be9-3d4e-11ea-b62c-ac1f6bb5d7c4.eli ONLINE gptid/b138c5fd-3d4e-11ea-b62c-ac1f6bb5d7c4.eli ONLINE gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli ONLINE gptid/b37e4c2c-3d4e-11ea-b62c-ac1f6bb5d7c4.eli ONLINE geli, на тех двух дисказ что UNAVAIL пишет что ключ неверный. перед ребутом было такое Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli[READ(offset=0, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli[READ(offset=262144, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli[READ(offset=3998638931968, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli[READ(offset=3998639194112, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli[READ(offset=0, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli[READ(offset=262144, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli[READ(offset=3998638931968, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli[READ(offset=3998639194112, length=131072)] (хз стоит ли на пастебин лить) мое предположение в том что в READ(offset=0, находился какой то заголовок и он не может из-за него расшифровать да и по идее потеря двух дисков не должна приводить к потере данных (только потери подтверждения целостонсть, ведь так?) еще было предположение что UNAVALI не изза двух дисков а из-за потери транзакции или что то типо того, но я так и не разобрался с zdb -ul pool1_pve пишет cannot open '/dev/rdsk/pool1_pves0': No such file or directory по факту /dev/rdsk/ не существует да и вот таким пугает zpool import -f 8799729420786166239 cannot import 'pool1_pve': I/O error Destroy and re-create the pool from a backup source. можно ли как то заставить geli забить на заголовок или там какие то метаданные которые не только для проверки пароля? или можно как то согласиться с тем что проверки целостностит больше нет и заменить диски? или может быть возможно забить последние транзакции?
George
всем привет, после ребута не импортируется пулл root@freenas[~]# zpool import -FX -f pool: pool1_pve id: 8799729420786166239 state: FAULTED status: One or more devices are missing from the system. action: The pool cannot be imported. Attach the missing devices and try again. The pool may be active on another system, but can be imported using the '-f' flag. see: http://illumos.org/msg/ZFS-8000-3C config: pool1_pve FAULTED corrupted data raidz2-0 DEGRADED 8893117777881115282 UNAVAIL cannot open 2596649909032266628 UNAVAIL cannot open gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli ONLINE gptid/b0200be9-3d4e-11ea-b62c-ac1f6bb5d7c4.eli ONLINE gptid/b138c5fd-3d4e-11ea-b62c-ac1f6bb5d7c4.eli ONLINE gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli ONLINE gptid/b37e4c2c-3d4e-11ea-b62c-ac1f6bb5d7c4.eli ONLINE geli, на тех двух дисказ что UNAVAIL пишет что ключ неверный. перед ребутом было такое Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli[READ(offset=0, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli[READ(offset=262144, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli[READ(offset=3998638931968, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli[READ(offset=3998639194112, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli[READ(offset=0, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli[READ(offset=262144, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli[READ(offset=3998638931968, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli[READ(offset=3998639194112, length=131072)] (хз стоит ли на пастебин лить) мое предположение в том что в READ(offset=0, находился какой то заголовок и он не может из-за него расшифровать да и по идее потеря двух дисков не должна приводить к потере данных (только потери подтверждения целостонсть, ведь так?) еще было предположение что UNAVALI не изза двух дисков а из-за потери транзакции или что то типо того, но я так и не разобрался с zdb -ul pool1_pve пишет cannot open '/dev/rdsk/pool1_pves0': No such file or directory по факту /dev/rdsk/ не существует да и вот таким пугает zpool import -f 8799729420786166239 cannot import 'pool1_pve': I/O error Destroy and re-create the pool from a backup source. можно ли как то заставить geli забить на заголовок или там какие то метаданные которые не только для проверки пароля? или можно как то согласиться с тем что проверки целостностит больше нет и заменить диски? или может быть возможно забить последние транзакции?
Ох, 2 диска за раз, что-то из железа дохнет? Если данные важны и бекапов нет - нормальной практикой перед пробами импортнуть стоит сделать полные копии дисков dd шкой и на этом играться. Про geli не подскажу, но я бы сначала попробовал понять что ему не нравится, и уже потом пытаться пул импортнуть. Сколько дисков изначально в массиве было?
George
всем привет, после ребута не импортируется пулл root@freenas[~]# zpool import -FX -f pool: pool1_pve id: 8799729420786166239 state: FAULTED status: One or more devices are missing from the system. action: The pool cannot be imported. Attach the missing devices and try again. The pool may be active on another system, but can be imported using the '-f' flag. see: http://illumos.org/msg/ZFS-8000-3C config: pool1_pve FAULTED corrupted data raidz2-0 DEGRADED 8893117777881115282 UNAVAIL cannot open 2596649909032266628 UNAVAIL cannot open gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli ONLINE gptid/b0200be9-3d4e-11ea-b62c-ac1f6bb5d7c4.eli ONLINE gptid/b138c5fd-3d4e-11ea-b62c-ac1f6bb5d7c4.eli ONLINE gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli ONLINE gptid/b37e4c2c-3d4e-11ea-b62c-ac1f6bb5d7c4.eli ONLINE geli, на тех двух дисказ что UNAVAIL пишет что ключ неверный. перед ребутом было такое Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli[READ(offset=0, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli[READ(offset=262144, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli[READ(offset=3998638931968, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/59001998-42c3-11ea-8b0a-ac1f6bb5d7c4.eli[READ(offset=3998639194112, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli[READ(offset=0, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli[READ(offset=262144, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli[READ(offset=3998638931968, length=131072)] Feb 6 15:59:05 freenas GEOM_ELI: g_eli_read_done() failed (error=6) gptid/af0340f7-3d4e-11ea-b62c-ac1f6bb5d7c4.eli[READ(offset=3998639194112, length=131072)] (хз стоит ли на пастебин лить) мое предположение в том что в READ(offset=0, находился какой то заголовок и он не может из-за него расшифровать да и по идее потеря двух дисков не должна приводить к потере данных (только потери подтверждения целостонсть, ведь так?) еще было предположение что UNAVALI не изза двух дисков а из-за потери транзакции или что то типо того, но я так и не разобрался с zdb -ul pool1_pve пишет cannot open '/dev/rdsk/pool1_pves0': No such file or directory по факту /dev/rdsk/ не существует да и вот таким пугает zpool import -f 8799729420786166239 cannot import 'pool1_pve': I/O error Destroy and re-create the pool from a backup source. можно ли как то заставить geli забить на заголовок или там какие то метаданные которые не только для проверки пароля? или можно как то согласиться с тем что проверки целостностит больше нет и заменить диски? или может быть возможно забить последние транзакции?
А вообще очень похоже на эту проблему с geli https://forums.freebsd.org/threads/cannot-import-one-or-more-devices-is-currently-unavailable-but-all-devices-present-and-online.59660/
George
В общем 99% у вас с geli проблемы, который уже не даёт нормально пул импортнуть
George
Делайте копии дисков, играйтесь с гели, удачи!
Fedor
Всем привет!
Сергей
привет. пожалуй это самая спокойная группа, на которые я подписан))
Fedor
Признак стабильности решения :)
tubanov
Привет
Vladislav
В этой группе нет пары токсичных персонажей
George
откуда наплыв, кстати?
Fedor
непонятно :D признавайтесь, ребят!
Сергей
я сегодня упоминал в группе 1С/linux/posgtres
Fedor
👍
Vladislav
ну, так пишите howto как правильно готовить ZFS для Postgres и 1С
Сергей
ну, так пишите howto как правильно готовить ZFS для Postgres и 1С
в группе PostgreSQL + 1C + Linux, Роман отправлял уже ссылку, продублирую здесь: https://github.com/rsyuzyov/work-on-linux начать можно с неё, в самом конце есть про ZFS
Vladislav
прошелся по ссылке, есть битые ссылки на инструкции https://github.com/rsyuzyov/work-on-linux/blob/master/samba.md
George
George
для постгри совсем базово тут http://www.open-zfs.org/wiki/Performance_tuning#PostgreSQL
Vladislav
спасибо, поищу более внимательного автора