Александр
Ага)))
Eugen
Eugen
И че хотели не понятна
Василий
Баню сразу новых с фразой "привет" без причины сообщения
Василий
Ни разу ложных срабатываний не было
Сергей
в большинстве случаев начинают крипто-фигню впаривать
Nikolay
мне тоже писали ))
Станислав
Надо их в бан отправлять в чате, чтобы меньше народ доставали
Владимир
И че хотели не понятна
и мне пишет, наверное хочет криптовалюту впарить)
Владимир
Ни разу ложных срабатываний не было
я так чуть одного нормального не положил)
Владимир
с тех пор стараюсь дожидаться))
Василий
я так чуть одного нормального не положил)
Нормальный в чате или ещё где потом напишет, если что-то важное
Владимир
Алексей
Коллеги, пробую эксперименты с zfs. Подскажите, не пинайте сразу за возможно глупые вопросы. Имею стойку с дисками, собрал пул zpool create -f zfspool1 raidz1 /dev/sdg /dev/sdc /dev/sdj создал фс zfs create -V 50G zfspool1/videorecord Прокинул ее через tgt на другую машину. Все вроде сработало Вопрос, как при необходимости увеличить эту фс до 100 Гб, например
Anonymous
zfs set volsize=100G zfspool1/videorecord
Anonymous
Не собирайте пул через имена дисков /dev/sd* используйте имена из /dev/disk/by-id/
Алексей
Спасибо, попробую
Алексей
zfs set volsize=100G zfspool1/videorecord
это получилось. Но проброшенный по tgt диск остался прежнего размера. Что-то еще надо сделать?
Anonymous
это получилось. Но проброшенный по tgt диск остался прежнего размера. Что-то еще надо сделать?
Ничего, устройство вы увеличили, всё остальное нужно делать на клиенте, которому вы пробрасываете блочное устройство.
Алексей
там по прежнему показывает диск 50Гб
Anonymous
Там есть файловые системы уже?
Алексей
да
Anonymous
Ну дак может надо что нибудь сделать с ней?...
Anonymous
Сервер не знает что происходит с блочным устройством на клиенте, он отдаёт блоки, если вы разбили там файловую систему на 50 гб, а затем увеличили блочное устройство, файловая система по-прежнему будет 50гб видеть. Expand надо сделать или grows смотря какая там фс. Мб перелогиниться в iscsi сессию.
Anonymous
Посмотрите, сколько устройство в действительности предоставляет место fdisk -l
Ivan
скорее всего tgt придется перезапустить
Алексей
да. разобрался. надо: 1) поправить размер диска через fdisk 2) перезапустить tgt 3) перезайти в iscsi сессию спасибо
Sergey
Всем привет уважаемые. Подскажите пожалйста. Есть пул аналог райд 10 из 4-х дисков по 256 гигов, на нем установлена система Prox. Хочу заменить все 4 диска на большего размера с целью расширить объем. Подскажите плз как это корректно сделать и возможно ли вообще при условии, что там система?
Станислав
Всем привет уважаемые. Подскажите пожалйста. Есть пул аналог райд 10 из 4-х дисков по 256 гигов, на нем установлена система Prox. Хочу заменить все 4 диска на большего размера с целью расширить объем. Подскажите плз как это корректно сделать и возможно ли вообще при условии, что там система?
Да, можно. С помощью zpool нужно установить на пул свойство autoexpand=on, потом тем же zpool изъять из пула один из дисков, вместо него установить другой и добавить в пул как замену изъятому. Так по кругу со всеми дисками
Станислав
По итогу объем сам увеличится из-за autoexpand
Александр
@a_d_m_i_n_S монотонные ограниченные мысли сходятся
Art
Да, можно. С помощью zpool нужно установить на пул свойство autoexpand=on, потом тем же zpool изъять из пула один из дисков, вместо него установить другой и добавить в пул как замену изъятому. Так по кругу со всеми дисками
Стоп-стоп Зачем изымать здоровый функционирующий диск, переводя пул в состояние degraded и тем самым прдвергая его опасности? Я к вам сюда человека направил не для таких вредных советов( Хотя про autoexpand - дельно. Но вроде как он по дефолту стоит в on
Александр
что значит дырки и контроллера?
Можно ли поставить пятый диск, вот физически - или это нереально
Sergey
Пул поверх аппаратного рейда?
нет, я слышал такое даже вредно
Станислав
То есть диски в пул собраны с помощью zfs?
Sergey
изначально при установки прокса укзал, что желаю его поставить на zfs
Станислав
Свободные порты для подключения новых дисков есть?
Sergey
ага
Sergey
а если на горячую засунуть в сата он его определит? Это я так, во имя интереса?
Sergey
мне интересно, гипотетически сможет ли жена приехав туда меняя по 1 диску не убить систему и расширить zfs
Станислав
мне интересно, гипотетически сможет ли жена приехав туда меняя по 1 диску не убить систему и расширить zfs
Если заменить физически диск, то zfs перейдет в degraded, после установки нового диска, нужно сказать zfs, что нужно заменить
Станислав
Допустим, у тебя есть 4 диска mirror 1 256g1 256g2 mirror 2 256g3 256g3
Станислав
Если вырвать диск 256g1 и установить 512g, нужно ввести в терминале: zpool raplace <pool> 256g1 ZFS понимает, что сейчас на месте старого стоит новый и меняет на него
Станислав
Пока вспомнил! Перед началом замены нужно обязательно запустить scrub
Станислав
После скраба меняем устройство, говорим replace, смотрим zpool status <pool>, когда будет окончен resilver
Станислав
Когда resilver окончится и mirror в пуле перейдет в статус online - можно менять следующий диск
Roman
Можно менять по 2 диска сразу!)
Sergey
Когда resilver окончится и mirror в пуле перейдет в статус online - можно менять следующий диск
благодарю за дельные советы. С Вашего позволения добавлю Вас к себе в други, чтобы когда буду в процессе было в случае чего к кому обратиться.
Shestakow
Всем привет.Такой вопрос , для знатоков ZFS. Имеется pool zfs, на нем крутятся диски виртуальных машин KVM. Если точно - винда, в гостевой ОС удален был небольшой файл. если я правильно понял суть copy-on-write файловых систем , то чисто теоретически, файл который удален, где то еще лежит, пока поверх не будет что то перезаписано . Как то можно его достать?
Evgenii
Если нет снимков на момент существования файла, то никак
George
Всем привет.Такой вопрос , для знатоков ZFS. Имеется pool zfs, на нем крутятся диски виртуальных машин KVM. Если точно - винда, в гостевой ОС удален был небольшой файл. если я правильно понял суть copy-on-write файловых систем , то чисто теоретически, файл который удален, где то еще лежит, пока поверх не будет что то перезаписано . Как то можно его достать?
без снапшотов - теоретически: возможно - практически: файл размазан блоками, даже если повезёт найти по остаткам меты их положение, они могут быть уже перезаписаны. Не перезаписывается только небольшое количество последних транзакций, чем дольше от момента Х, тем меньше шансов (но они итак оч малы). Так что по умолчанию проще считать, что этот вариант маловероятен
Shestakow
благодарю за развернутый ответ.
Egor
Я бы в такой реализации ВМ создавал каждую вм в свой датасет и делал бы им снапшоты по расписанию с нужной частотой и глубиной хранения
Egor
Ну как раз на такой случай)
Egor
Место на диске не резиновое
Занимать место будут только изменённые/удалённые данные, если там очень сильно идёт перезапись, тогда да, это проблема
Игорь
Люди, учите математику и никогда её не забывайте. Изучайте предметную область и просчитывайте свои шаги заранее в обязательном порядке. По факту: 0. есть хранилка в 12 дисков с ZFS по формату dRAID с данными на 8-ми дисках, остальные для контрольных сумм. Разумеется, это не в чистом виде, а размазано по дискам, как dRAID делает. На хранилке будут храниться большие файлы архивов SQL. Старого SQL2000, почему - другой вопрос, суть в том, что в сжатие архивов он не умеет. 1. делаем том ZFS на хранилке с размером блока volblocksize=64k (зачем нам математика и предметная область, правильно?) и с включенным сжатием. 2. отдаём этот том через iSCSI на SQL-сервер 3. форматируем диск на SQL-сервере с размером кластера 64k, файлы-то будут большие. 4. выполняем архивацию и удивляемся, почему compressratio=1.0 5. вспоминаем теорию про dRAID и математику 6. удаляем том ZFS 7. умножаем 64k на 8 дисков и создаём том ZFS с volblocksize=512k и включенным сжатием, опять же 8. тут опять про iSCSI и NTFS 64k. 9. выполняем архивацию, получаем compressratio=5.31. Улыбаемся
Nikita
Люди, учите математику и никогда её не забывайте. Изучайте предметную область и просчитывайте свои шаги заранее в обязательном порядке. По факту: 0. есть хранилка в 12 дисков с ZFS по формату dRAID с данными на 8-ми дисках, остальные для контрольных сумм. Разумеется, это не в чистом виде, а размазано по дискам, как dRAID делает. На хранилке будут храниться большие файлы архивов SQL. Старого SQL2000, почему - другой вопрос, суть в том, что в сжатие архивов он не умеет. 1. делаем том ZFS на хранилке с размером блока volblocksize=64k (зачем нам математика и предметная область, правильно?) и с включенным сжатием. 2. отдаём этот том через iSCSI на SQL-сервер 3. форматируем диск на SQL-сервере с размером кластера 64k, файлы-то будут большие. 4. выполняем архивацию и удивляемся, почему compressratio=1.0 5. вспоминаем теорию про dRAID и математику 6. удаляем том ZFS 7. умножаем 64k на 8 дисков и создаём том ZFS с volblocksize=512k и включенным сжатием, опять же 8. тут опять про iSCSI и NTFS 64k. 9. выполняем архивацию, получаем compressratio=5.31. Улыбаемся
так. суть то в чем, что volblocksize должен быть равен числу дисков(за вычетом parity) умноженных на NTFS cluster size?
Игорь
так. суть то в чем, что volblocksize должен быть равен числу дисков(за вычетом parity) умноженных на NTFS cluster size?
Я так понял, что 64k блок volblocksize разложился на 8 дисков по 8k в каждом, если не 4k вообще и сжатие не применилось из-за того, что блок маленький. Т.е. размер кластера NTFS не особо роляет. Для общей картины писал. Разве что чем больше размер блока, тем лучше сжатие и 64k - это максимум для NTFS и тогда да, размер кластера на количество дисков. Извините, если кого запутал.
Art
Я так понял, что 64k блок volblocksize разложился на 8 дисков по 8k в каждом, если не 4k вообще и сжатие не применилось из-за того, что блок маленький. Т.е. размер кластера NTFS не особо роляет. Для общей картины писал. Разве что чем больше размер блока, тем лучше сжатие и 64k - это максимум для NTFS и тогда да, размер кластера на количество дисков. Извините, если кого запутал.
Спасибо, интересный пример из практики👍 Да, наверное, что дело в особенности dRAID. На зеркальном массиве сжатие было бы и при volblocksize=64к, проверено Я даже припоминаю, что некие сложности с компрессией упоминались как cons у dRAID Хотя по идее... Если достижимая компрессия больше 2.0, а у массива ashift=12=4к и пусть запись разложилась так, что каждому диску достаётся по 8к... всё равно же компрессия должна была получиться🤔
Игорь
У меня ashift=13 =8k, поэтому. При сжатии данные всё-равно вписываются в блок 8k и сжатие отменяется, если вообще выполняется. Так думаю.
Den
Всем привет.Такой вопрос , для знатоков ZFS. Имеется pool zfs, на нем крутятся диски виртуальных машин KVM. Если точно - винда, в гостевой ОС удален был небольшой файл. если я правильно понял суть copy-on-write файловых систем , то чисто теоретически, файл который удален, где то еще лежит, пока поверх не будет что то перезаписано . Как то можно его достать?
У вас там скорее всего zvol тома, на которых расположены фс гостей. Независимо от ситуации с гостем в зволе у зфс есть информация только о блоках, а файлы где-то очень далеко внутри фс гостя. Поэтому найти в зволе ничего нереально, скорее всего. В pve, например, и в большей части инструкций к зфс на линуксе по-умолчанию включена компрессия, так что даже сырые текстовые данные там просто так не найти.
Den
Что-то разыскать вы сможете только внутри гостя каким-нибудь r-studio.
Станислав
привет всем, можно глупый вопрос? может быть я сделал что-то не так, но мне кажется странным я перенес пару датасетов из одного пула в другой стандартной командой zfs send tank/data@snap1 | zfs recv spool/ds01 сжатие было включено на обеих сторонах (zfs set compression=on), в итоге при отправке у меня на втором пуле отключилось принудительно сжатие в off, а при повторном включении и перемещении данных (соответственно они должны были пожаться) я получил разные степени сжатия для файлов (к примеру скульная база имела степень сжатия 7.93, а на новом датасете всего 1.77) так вот вопрос - это нормальное поведение?
Evgenii
возможно на целевом или исходном датасете есть снимки, которых нет на другом
Evgenii
zfs list -t snapshot -r spool/ds01
Evgenii
повторить для второго датасета